Une fuite de données chez Anthropic révèle Claude Mythos, un modèle IA d'un nouveau tier "Capybara" surpassant Opus, décrit comme un "saut qualitatif" avec des capacités cyber jugées sans précédent. L'entreprise opte pour un déploiement ultra-prudent centré sur la cyberdéfense.

Pas encore de commentaire. Lancez la discussion !
Anthropic se retrouve au coeur d'une tempête médiatique après la découverte accidentelle de son modèle le plus ambitieux à ce jour. Baptisé Claude Mythos, ce nouveau système d'intelligence artificielle a été révélé par une fuite de données massive provenant d'une erreur de configuration dans le système de gestion de contenu de l'entreprise. Près de 3 000 documents internes non publiés, dont un brouillon d'annonce officielle, se sont retrouvés dans un cache de données publiquement accessible. Anthropic a confirmé l'existence du modèle, le qualifiant de "saut qualitatif" dans les performances de l'IA et de "plus capable que tout ce que nous avons construit jusqu'ici".
Claude Mythos inaugure un tout nouveau tier interne chez Anthropic, baptisé Capybara, qui se positionne au-dessus de la gamme Opus, jusqu'alors la plus puissante de l'entreprise. Selon les documents fuités, le modèle est décrit comme "plus grand et plus intelligent que nos modèles Opus", avec des scores dramatiquement supérieurs sur les tests de programmation, de raisonnement académique et de cybersécurité par rapport à Claude Opus 4.6. Le nom "Mythos" a été choisi pour évoquer "le tissu conjonctif profond qui relie la connaissance et les idées", reflétant l'ambition d'Anthropic de créer un modèle dont la compréhension du monde dépasse la simple exécution de tâches.
C'est sur le terrain de la cybersécurité que Mythos suscite le plus de réactions. Les documents internes indiquent que le modèle est "actuellement très en avance sur tout autre modèle d'IA en matière de capacités cyber" et qu'il "annonce une vague imminente de modèles capables d'exploiter des vulnérabilités d'une manière qui dépasse largement les efforts des défenseurs". Cette franchise inhabituelle de la part d'Anthropic a provoqué une onde de choc sur les marchés financiers, faisant chuter les actions des entreprises de cybersécurité cotées en bourse. L'entreprise reconnaît ouvertement le potentiel de son propre modèle à accélérer une course aux armements cyber.
Conscient des risques, Anthropic a opté pour une stratégie de déploiement extrêmement prudente. Le modèle est actuellement testé par un groupe restreint de clients en accès anticipé, principalement des organisations spécialisées en cyberdéfense, afin de leur donner "une longueur d'avance pour améliorer la robustesse de leurs bases de code" face aux futures menaces. Anthropic admet par ailleurs que Mythos est "très coûteux à faire tourner" et travaille activement à le rendre plus efficient avant toute mise à disposition générale via l'API Claude.
L'ironie de la situation n'échappe à personne dans l'industrie. Anthropic, qui se positionne comme le laboratoire d'IA le plus soucieux de la sécurité et de l'alignement, vient de subir une fuite de données embarrassante causée par une simple erreur humaine de configuration. Alors que l'entreprise met en garde contre les risques cybersécuritaires sans précédent de son propre modèle, c'est précisément un défaut de sécurité basique qui a exposé ses secrets les mieux gardés. Cette mésaventure pose une question fondamentale : si les créateurs de ces modèles surpuissants peinent à sécuriser leurs propres systèmes, comment le reste de l'industrie pourra-t-il se protéger face à la vague de menaces que Mythos annonce ?