Term 'neutrale ai' is misleidend
In dit artikel:
Toenemende praat over ‘neutrale’ of ‘verantwoorde’ ai miskent dat systemen instrumenten zijn die door mensen worden ontworpen en ingezet. Historicus Jérôme Bourdon waarschuwt dat het behandelen van ai als gesprekspartner neigt naar animisme: het projecteren van menselijke eigenschappen op een machine. Dat blijkt ook uit uitspraken van techleiders zoals Sam Altman (die verschillende ChatGPT-versies vergeleek met een scholier, student en expert) en Elon Musk (die ai ooit een mentor noemde) — maar Bourdon benadrukt dat ai feitelijk afhankelijk is van door mensen geleverde energie, data en keuzes. Hij stelt voor ai concreter te benoemen, bijvoorbeeld als “algoritme-apparaat” of “bureaucratisch assistent”.
In bestuurlijke context draait het niet zozeer om neutraliteit als wel om rationaliteit: ai kan rationeel handelen, maar die rationaliteit is altijd afgeleid van doelen en beperkingen van makers en gebruikers (bounded rationality). Dat betekent dat een systeem zeer doelgericht en dus effectief kan zijn, ook als dat doel bijvoorbeeld machtsbehoud dient en schade oplevert voor klimaat of volksgezondheid. Daarom is transparantie over de doelen, de gebruikte data en de epistemische grondslagen (wetenschappelijke criteria versus “wisdom of the crowd”) cruciaal.
Onder de noemer explainable AI probeert onderzoeksbedrijf Anthropic inzichtelijk te maken hoe ai tot antwoorden komt: welke informatiepakketjes worden gebruikt, welke paden van analyse worden gevolgd en hoe de veronderstelde persoonlijkheid van de gebruiker meebepaalt wat het systeem selecteert en prioriteert. Dit onderzoek staat nog in de kinderschoenen; zonder beter begrip van de interne logica is het riskant om wezenlijke besluiten aan machines te laten ondersteunen. Europese wetgeving speelt hierop in: de AI Act verplicht vanaf 2027 documentatie voor hoogrisico-ai-systemen.
Ten slotte gaat het om verantwoordelijkheid. Morele en juridische aansprakelijkheid moeten menselijk blijven: solidariteit, intentie en begrip van consequenties zijn menselijke voorwaarden voor moreel handelen en zijn niet zomaar te delegeren aan een algoritme. Systemen als aansprakelijke partij aanwijzen zou makers en opdrachtgevers een blanco cheque geven en de samenleving niet veiliger maken.
Kort gezegd: neutraliteit toeschrijven aan ai leidt af van de menselijke keuzes en doelen die erachter zitten. De discussie zou daarom primair moeten gaan over de makers en gebruikers — hun rationaliteiten, doelstellingen en aansprakelijkheid — niet over een mythische onpartijdigheid van de technologie zelf. De recente conflicten rond OpenAI en vertrek van Elon Musk illustreren dat het uiteindelijk om menselijke belangen en macht gaat, niet om autonome morele machines.