Schaduw-ai en het risico voor organisaties

dinsdag, 4 november 2025 (16:46) - Computable

In dit artikel:

Nu de aanvankelijke sensatie rond DeepSeek is weggeëbd, blijven bedrijven met vragen zitten over het gebruik van generatieve ai (gen‑ai) op de werkvloer: vormt de Chinese chatbot een uniek veiligheidsprobleem, of illustreert het vooral bredere risico’s van makkelijk toegankelijke grote taalmodellen (LLM’s)? Het juiste antwoord ligt ertussenin. DeepSeek kan eigen privacy-, security‑ en censuurproblemen hebben, maar het onderstreept ook dat alle gen‑ai‑tools risico’s meebrengen zodra organisaties niet weten wie ze gebruikt, waarvoor en met welke data.

Het grote probleem is schaduw‑ai: toepassingen die buiten formeel toezicht en toestemming om door medewerkers worden ingezet — soms bewust, vaak onbedoeld. Veel werknemers noemen alleen ChatGPT, terwijl in werkelijkheid een veelheid aan diensten in gebruik is (Microsoft Copilot, Google Gemini, Claude, Grammarly, Otter, functionaliteit binnen Canva en GitHub, etc.). Deze tools verhogen de productiviteit, maar kunnen ook gevoelige informatie buiten de organisatie brengen, en vormen daardoor aantrekkelijke doelen voor cybercriminelen.

Er bestaat geen enkelvoudige oplossing. Effectieve verdediging vraagt meerdere lagen: mensgerichte toegangs‑ en databeheersmaatregelen, duidelijke interne beleidslijnen, een ai‑governanceboard en technische controles. Een praktische eerste stap is zicht krijgen op het gebruik van gen‑ai: gespecialiseerde DLP‑oplossingen (data loss prevention) kunnen honderden gen‑ai‑sites per gebruiker volgen, toegang tot clouddata en e‑mail/agendagebruik identificeren, en app‑gebruik koppelen aan gebruikersrisico. Dergelijke tools kunnen uploads blokkeren, gevoelige termen uit prompts halen en metadata of screenshots vastleggen.

Die technische maatregelen moeten hand in hand gaan met doorlopende training: medewerkers moeten de risico’s en de procedures voor het aanvragen en verantwoord inzetten van nieuwe ai‑tools kennen. Alleen zo kunnen organisaties profiteren van gen‑ai zonder onbedoeld vertrouwelijke gegevens prijs te geven.