Van ai-hallucinaties naar governance: de opdracht voor it

dinsdag, 17 februari 2026 (17:03) - Computable

In dit artikel:

Organisaties gebruiken ai steeds vaker — van marketing en sales tot hr — vaak zonder dat de it-afdeling het weet of kan controleren. Dat leidt tot concrete risico’s: ai produceert fouten en 'hallucinaties' (zoals verzonnen citaten of onjuiste onderzoeksbronnen), en zonder toezicht kunnen beslissingen op basis van die output misleidend of schadelijk zijn.

De it-afdeling zou toezichthouder moeten zijn omdat die zowel technische kennis als organisatie-inzicht heeft om te controleren of modellen de juiste data gebruiken, of securityprotocollen gevolgd worden en of tools correct gekoppeld zijn. Praktische voorbeelden tonen waarom dat belangrijk is: een helpdeskchatbot zonder toegang tot systeemdata blijft hangen op algemene adviezen, terwijl met correcte integraties dezelfde chatbot concrete oplossingen kan bieden.

Tegelijk staat it onder zware druk. Volgens ‘Inside ITSM 2026’ ervaart een derde van de it-professionals al een hoge werkdruk; veertig procent is voornamelijk bezig met brandjes blussen en slechts een kwart voelt zich toekomstbestendig. Daardoor ontbreekt vaak de capaciteit voor structurele ai-governance: monitoring is geen eenmalige klus maar vereist doorlopende aandacht voor updates, datagebruik en outputvalidatie.

Uitbesteden of het toezicht bij andere afdelingen leggen lijkt een optie, maar heeft nadelen: verlies van regie over bedrijfsdata, gebrek aan technische kennis bij andere teams en het risico dat monitoring helemaal verwaarloosd wordt. Daarom pleit de analyse voor fundamentele keuzes binnen organisaties: it leiderschap bij ai-governance, maar dan met gerichte investeringen en een stapsgewijze aanpak zodat toezicht houdbaar wordt binnen de huidige werkdruk.

Belangrijkste conclusie: ai blijft hallucineren en vraagt continu toezicht; de kernvraag is niet of it deze taak moet oppakken maar hoe organisaties it de middelen en ruimte geven om dat te doen. Wie die keuzes maakt en investeert, kan it positioneren als bewaker van een verantwoorde ai-transitie — onnodige misinformatie en foutieve rapporten ten spijt.

Aanvullende context: naast interne governance speelt ook wet- en regelgeving (zoals de zich ontwikkelende AI-regulering in Europa) een rol; compliance en transparantie worden extra drijfveren om monitoring en databeheer structureel in te richten.