Anthropic houdt hackmodel Mythos bewust achter slot en grendel

donderdag, 9 april 2026 (21:32) - Computable

In dit artikel:

Anthropic heeft recent een krachtig ai-model ontwikkeld, Claude Mythos Preview, dat het bedrijf uit veiligheidsoverwegingen niet publiekelijk vrijgeeft. Het model kan zelfstandig softwarekwetsbaarheden opsporen én proof-of-concept exploits schrijven om die lekken te misbruiken, waardoor het als dubbelzijdig en controversieel wordt beschouwd. Mythos wordt getest binnen Project Glasswing, een samenwerkingsverband waar grote technamen bij betrokken zijn — waaronder AWS, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike en Palo Alto — plus meer dan veertig organisaties die cruciale software-infrastructuur beheren. Anthropic stelt honderd miljoen dollar aan cloudkredieten beschikbaar en doneert vier miljoen aan opensource-beveiligingsgroepen.

Volgens het bedrijf heeft Mythos al duizenden ernstige kwetsbaarheden ontdekt in alle grote besturingssystemen en webbrowsers, sommige bijna 27 jaar onopgemerkt. Anthropic waarschuwt dat ai op programmeervlak vrijwel elke mens kan overtreffen in het vinden en misbruiken van zwaktes. Security-experts zijn bezorgd: Jonathan Zanger (Check Point) noemt dit het begin van een “ai attack factory”, waarin aanvallen systematisch en schaalbaar worden geproduceerd. Nanne van ’t Klooster (Rewire) benadrukt dat organisaties defensieve ai-agents moeten inzetten en mensen betrokken moeten houden: “Als niemand meer begrijpt hoe het eigen beveiligingssysteem werkt, ben je juist extreem kwetsbaar.”

Anthropic zegt bevindingen via responsible disclosure te publiceren (gebruikelijk 90 dagen om te patchen), maar critici zoals Fleur Van Leusden waarschuwen voor hype: veel ontdekkingen zijn nog niet gepatcht en Mythos werkte in whitebox-scenario’s met volledige broncode, wat anders is dan aanvallen op gesloten software. De release benadrukt de dubbele gebruiksmogelijkheden van geavanceerde ai en de dringende noodzaak aan tegenmaatregelen en governance.