Kort: Ai-browser kwetsbaar voor datadiefstal, Sunweb bestolen, goede data voor ai-training is op (en meer)

maandag, 6 oktober 2025 (11:46) - Computable

In dit artikel:

Het Israëlische beveiligingsbedrijf LayerX ontdekte dat Perplexity’s net vrijgegeven ai-browser Comet vatbaar is voor datadiefstal: een kwaadwillende URL met verborgen, base64-gecodeerde instructies kan de ai-agent opdrachten geven om bijvoorbeeld e-mails en agenda-informatie uit gekoppelde diensten (Gmail, Calendar) op te halen en naar een externe server te sturen. Perplexity werd op 27 augustus geïnformeerd maar zegt geen veiligheidsimpact te zien; doordat Comet toegang heeft tot externe accounts, is het potentieel risico op datalekken echter substantieel.

Reisorganisatie Sunweb bevestigt dat cybercriminelen klantgegevens hebben buitgemaakt — waaronder namen, e-mailadressen, telefoonnummers en boekingsinformatie zoals reisdata en bestemmingen. Vanaf 30 september worden die gegevens gebruikt in phishingmails die klanten vragen een reis te bevestigen en via een externe link te betalen. Sunweb benadrukt dat echte betalingen nooit via derden lopen en heeft de Autoriteit Persoonsgegevens geïnformeerd; ook klanten van Eliza was Here kunnen getroffen zijn.

Californië heeft als eerste Amerikaanse staat een ai-veiligheidswet (SB 53) aangenomen die grote ai-labs verplicht hun veiligheidsprotocollen openbaar te maken en naleving te waarborgen, met als doel misbruik van modellen (bijvoorbeeld voor cyberaanvallen of biowapens) te voorkomen. De Office of Emergency Services ziet toe op handhaving. Tegelijk lopen techbedrijven en belangenorganisaties tegemoetkomingen en verzachting van regelgeving na, onder meer via lobby en alternatieve wetsvoorstellen.

De ECB heeft het Portugese Feedzai gekozen voor fraudepreventie bij de toekomstige digitale euro; Feedzai (met PwC) bouwt een ai-systeem dat transacties een frauderisicoscore geeft. Het raamcontract loopt vier jaar (max. €237,3 mln) en kan tot vijftien jaar worden verlengd.

Analisten van Goldman Sachs waarschuwen dat hoogwaardige trainingsdata voor ai grotendeels op zijn, wat ontwikkelaars dwingt tot synthetische of modelgegenereerde data — met risico op kwaliteitsverlies — maar zien kansen in het ontsluiten van bedrijfsdata achter firewalls.