Een recent datalek van AI-ontwikkelaar Anthropic heeft details onthuld over zijn volgende generatie model, Claude Mythos, wat de speculatie over een aanzienlijke sprong in AI-mogelijkheden bevestigt. Het lek, aanvankelijk gerapporteerd door Fortune, omvatte bijna 3.000 interne documenten, afbeeldingen en ongepubliceerde concepten, waardoor zowel geplande productreleases als interne cyberveiligheidsproblemen aan het licht kwamen.
Het lek en zijn oorsprong
Het incident kwam voort uit een verkeerd geconfigureerd contentmanagementsysteem (CMS). Anthropic heeft de gegevens geüpload, maar slaagde er niet in de publieke toegang te beperken, wat resulteerde in de blootstelling van gevoelige interne activa. Deze omvatten werknemersgegevens, uitnodigingen voor evenementen en, belangrijker nog, een ongepubliceerde blogpost waarin de mogelijkheden van Claude Mythos werden uiteengezet.
Claude Mythos: een “stapsverandering” in AI-prestaties
Anthropic beschrijft Claude Mythos als “verreweg het krachtigste AI-model dat we ooit hebben ontwikkeld ” en een “stapsverandering” in prestaties. Het model bevindt zich momenteel in early access-tests bij geselecteerde klanten. Het lek beschrijft ook plannen voor een nieuwe AI-laag, Capybara, die zelfs boven het huidige Opus-model van Anthropic wordt gepositioneerd, dat al tot de meest geavanceerde commercieel verkrijgbare modellen behoort.
Zorgen over cyberveiligheid: AI-gedreven exploits
De gelekte documenten benadrukken de interne angst van Anthropic dat de geavanceerde capaciteiten van Claude Mythos zouden kunnen worden bewapend. Het bedrijf is van mening dat het model “momenteel ver voorloopt op elk ander AI-model op het gebied van cybercapaciteiten ” en anticipeert op een “aankomende golf van modellen die kwetsbaarheden kunnen misbruiken op manieren die de inspanningen van verdedigers ver te boven gaan.” Anthropic deelt proactief vroegtijdige toegang met organisaties om hen te helpen hun verdediging tegen potentiële AI-gestuurde cyberaanvallen te versterken.
“Bij de voorbereiding van de vrijlating van Claude Capybara willen we extra voorzichtig zijn en de risico’s die dit met zich meebrengt begrijpen – zelfs verder dan wat we tijdens onze eigen tests leren.”
Deze proactieve aanpak onderstreept de ernst van de dreiging en suggereert dat de volgende generatie AI ongekende cyberveiligheidsuitdagingen zou kunnen introduceren. De gelekte gegevens bevestigen dat de volgende stap in de ontwikkeling van AI niet alleen gaat over het verleggen van grenzen, maar ook over het preventief beperken van de risico’s van een technologie die sneller evolueert dan de veiligheidsverdedigingen gelijke tred kunnen houden.
De release van Claude Mythos zal waarschijnlijk het concurrentielandschap van AI opnieuw vormgeven, maar de daarmee samenhangende veiligheidsproblemen duiden ook op de noodzaak van sectorbrede samenwerking om een verantwoorde ontwikkeling en implementatie te garanderen.





























