Le nouveau modèle d’IA qui a déjà échappé à son environnement de test, est capable de détecter des failles dans n’importe quel système informatique. Des performances aussi impressionnantes qu’effrayantes.
Si certains hésitaient encore à reconnaître qu’Anthropic s’impose désormais comme le leader incontesté de l’intelligence artificielle, l’entreprise vient d’en apporter la démonstration la plus éclatante avec la présentation de Claude Mythos Preview.
Dévoilé le 7 avril dernier, ce modèle marque une nouvelle étape dans la conception d’outils d’IA dédiés à la cybersécurité, tant ses performances sont hors normes.
Il aurait réussi à s’extraire de son environnement de confinement — le « sandbox » — conçu par ses ingénieurs pour prévenir toute dérive. L’un des chercheurs responsables de la surveillance du système n’aurait découvert cette évasion qu’en recevant des courriels envoyés par le modèle lui-même, alors qu’il déjeunait tranquillement dans un parc.
Concrètement, Claude Mythos serait capable de détecter avec une précision impressionnante les failles de sécurité présentes dans pratiquement n’importe quel système logiciel. Des hôpitaux aux institutions financières, jusqu’aux infrastructures stratégiques de l’État, aucun réseau connecté ne serait entièrement protégé face à un utilisateur malveillant disposant d’un tel outil.
Le projet Glass Wing comme stratégie de déploiement prudente
« Des capacités comme celles-là peuvent causer des dommages considérables si elles tombent entre de mauvaises mains. Nous ne diffuserons donc pas ce modèle largement », a précisé la société, dont la supériorité sur OpenAI semble se renforcer jour après jour.
Consciente des risques potentiels liés à une généralisation de Claude Mythos, Anthropic a imaginé une approche de mise en œuvre prudente. Nommée Project Glass Wing, cette initiative consiste à exploiter le modèle pour repérer et corriger les vulnérabilités critiques des infrastructures numériques mondiales.
Le partenariat rassemble onze géants technologiques, parmi lesquels AWS, Apple, Microsoft, Google, Cisco, CrowdStrike, NVIDIA, Broadcom, JPMorgan Chase, Palo Alto Networks et la Linux Foundation, rejoints par une quarantaine d’entreprises supplémentaires.
« L’engagement d’Anthropic de 100 millions de dollars en crédits d’utilisation de modèles pour le Project Glasswing et les participants additionnels couvrira une utilisation substantielle tout au long de cette prévisualisation de recherche », informe la société.
Un vide réglementaire qui inquiète
Pour le journaliste technologique Jacob Ward, interrogé sur la chaîne NBC, l’annonce d’Anthropic relève autant du marketing que de la mise en garde réelle. « C’est une entreprise qui attire une attention considérable sur elle-même à travers cette annonce », a-t-il déclaré. Selon lui, la rhétorique de la retenue ne résiste pas à l’examen des faits.
En effet, le paradoxe est manifeste. D’un côté, Anthropic se positionne en acteur responsable, seul garant d’une technologie qu’elle juge elle-même menaçante pour la civilisation. De l’autre, ce sont des entreprises privées — dont le modèle économique repose précisément sur la commercialisation de ces systèmes — qui sont chargées d’en évaluer les risques.
Certains partenaires, rapporte Jacob Ward, évoquent le projet « comme l’ouverture d’un salon d’aéroport luxueux », saluant la prouesse d’un « modèle frontière » sans mentionner la menace systémique qui l’accompagne.
Aucune agence gouvernementale n’est ainsi habilitée à superviser le déploiement de Claude Mythos, même partiel. Ce vide réglementaire laisse le champ libre à des acteurs privés pour décider seuls du niveau de risque acceptable, pour eux, et pour l’ensemble de la société.
