Claude impliqué dans la capture de Maduro ?

L’armée américaine aurait eu recours au modèle d’intelligence artificielle développé par Anthropic, lors de l’opération militaire du 3 janvier dernier, qui s’est soldée par la capture du président vénézuélien.

 

Pour mener à bien son opération « Absolute Resolve » visant à l’enlèvement de Nicolas Maduro, le Pentagone aurait, semble-t-il, bénéficié d’un atout jusqu’alors insoupçonné : l’intelligence artificielle.

 

Selon des informations publiées le 15 février par le Wall Street Journal (WSJ), le chatbot d’IA Claude, développé par la société Anthropic, aurait été mis à contribution. D’après le quotidien américain, citant des sources proches du dossier, cette implication se serait faite dans le cadre d’un partenariat avec Palantir Technologies, entreprise renommée pour son expertise en analyse de données.

 

La plateforme cofondée par Peter Thiel est déjà solidement implantée au sein du Département de la défense et d’autres agences fédérales américaines, ce qui en fait un relais naturel pour l’intégration d’outils d’IA avancés dans des environnements gouvernementaux sensibles.

 

Les modalités exactes de l’emploi de Claude durant l’opération n’ont toutefois pas été divulguées. Les rapports évoquent seulement un appui à certaines étapes de la planification et de la mise en œuvre de la mission, sans plus de précisions.

 

L’IA au service de la puissance militaire

 

Cette affaire illustre, s’il en était besoin, la volonté des États-Unis d’exploiter pleinement leur avance en matière d’intelligence artificielle, y compris sur le terrain militaire. The Guardian rappelle d’ailleurs que cette technologie est déjà intégrée aux arsenaux des grandes puissances, notamment américaine et israélienne, avec des applications concrètes sur le champ de bataille.

 

Interrogés à ce sujet, ni Anthropic ni le Département de la défense n’ont souhaité commenter les révélations du Wall Street Journal.

 

Dans une déclaration relayée par le Washington Post, un porte-parole d’Anthropic s’est contenté d’indiquer que l’entreprise ne pouvait « ni confirmer ni infirmer » l’usage de son modèle dans une opération donnée, tout en soulignant que tout emploi — qu’il soit public ou privé — doit respecter les politiques internes de la société.

 

Une position inconfortable

 

Cette sortie traduit le malaise du groupe, dont la charte interdit explicitement toute utilisation de ses modèles à des fins violentes, pour la conception d’armes ou des activités de surveillance intrusive. Or, une opération militaire menée sur le territoire vénézuélien, ayant abouti à la capture d’un chef d’État et fait, selon Caracas, 83 morts, semble difficilement compatible avec ces engagements éthiques.

 

Les relations entre Anthropic et le Pentagone n’en sont d’ailleurs que plus tendues. Le département américain de la Défense chercherait à obtenir des principaux acteurs du secteur un accès élargi à leurs modèles les plus puissants, pour une gamme étendue d’applications militaires, y compris dans des domaines sensibles comme la conception d’armes, le renseignement et les opérations de combat.

 

Des demandes que l’entreprise dirigée par Dario Amodei, refuse catégoriquement dans leur forme actuelle. Selon Axios, la frustration croissante au sein du Pentagone serait telle que certains responsables envisageraient désormais de rompre leur collaboration avec la firme, ce qui pourrait inclure la résiliation d’un contrat estimé à 200 millions de dollars.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *