Hoe tem je een ai-agent?
In dit artikel:
Nederlandse ontwikkelaars boeken flinke vooruitgang met ai‑agents — autonome software die taken automatiseert, data analyseert en output genereert — maar waarschuwen dat strakke sturing essentieel is om fouten en risico’s te voorkomen. Waar generatieve modellen zoals GPT‑5 geregeld onsin produceren (zogeheten hallucinaties), vormen dergelijke misstappen bij zakelijke toepassingen directe financiële en reputatieschade. Daarom investeren bedrijven in veiligheid, toegangsbegrenzing en menselijke controle.
In Alphen aan den Rijn bouwt Savvy.codes ai‑agents voor overheden en grotere ondernemingen. Eigenaar Jerom Kok benadrukt dat agents rollen en doelen meekrijgen en dat er meer nodig is dan een nette prompt. Savvy koppelt Retrieval‑Augmented Generation (RAG) aan klantvragen: het model raadpleegt alleen een goedgekeurde kennisbank en gebruikt een similarity‑drempel om irrelevante of foutieve documenten uit te sluiten. Ook stelt men ‘temperaturen’ in: lage waarden geven voorspelbare, nauwkeurige antwoorden (geschikt voor offertes), hoge waarden juist creatievere output (bijvoorbeeld voor social posts). Savvy’s agent voor informatie over zero‑emissiezones werkt via een kentekencheck gekoppeld aan RDW‑open data en een lokale uitzonderingsdataset; de agent beantwoordt maandelijks duizenden vragen en is als embedbaar component inzetbaar op meerdere sites.
Ook jongere Nederlandse spelers zoals Bonsai (Rotterdam, opgericht 2023), VionA (opgericht 2021) en Watermelon.ai leveren maatwerkagents. Founders Yeslin Beljaars en Mees Konijnendijk van Bonsai noemen grote taalmodellen ‘ruwe diamanten’: ze moeten bedrijfskundig en technisch nauwkeurig worden gevoed en alleen toegang krijgen tot strikt noodzakelijke systemen. Bonsai ziet toepassingen variërend van code schrijven en 3D‑modellen tot financieel voorspellen en roostering; een zorgorganisatie kon volgens Konijnendijk het aantal planners dankzij een agent van honderd terugbrengen naar mogelijk tien‑twintig.
VionA‑oprichter Sam van der Wagen merkt dat veel partijen technisch in staat zijn een agent te bouwen, maar dat ethisch besef en juiste kaders regelmatig ontbreken. VionA voegt onder meer humans‑in‑the‑loop en zelfvertrouwensscores toe, zodat de agent aangeeft hoe zeker hij is van een antwoord. Praktijkvoorbeelden laten zien dat een bijna correcte uitkomst toch fout kan zijn — waardoor controle en auditing noodzakelijk blijven.
Belangrijke bouwstenen zijn data‑engineering, machine learning, privacy en compliance, softwaredesign en usability. Naast technische maatregelen moeten organisaties ook ethische, privacy‑ en autorisatiedrempels inbouwen, zodat agents nooit toegang krijgen tot data waarvoor gebruikers niet geautoriseerd zijn. Commerciële claims zoals “automatiseer tot 96% van je supportvragen” (zoals Watermelon.ai adverteert) illustreren kansen, maar de implementatie bepaalt of die beloften veilig en betrouwbaar gerealiseerd worden.
Conclusie: ai‑agents dreigen alomtegenwoordig te worden en kunnen veel taken overnemen, mits ze zorgvuldig zijn ingericht, beperkte datatoegang hebben en onder menselijke supervisie blijven. Nederlandse ontwikkelaars blijken in staat om zulke veilige agents te leveren, maar waarschuwen dat ‘bijna goed’ in praktijksituaties vaak onvoldoende is.