Une coalition croissante d’employés de Google et OpenAI soutiennent publiquement le refus d’Anthropic d’accorder au ministère américain de la Défense un accès illimité à sa technologie d’intelligence artificielle. Plus de 300 employés de Google et 60 employés d’OpenAI ont signé une lettre ouverte exhortant les dirigeants de leurs entreprises à être solidaires avec Anthropic.
Le principal différend : surveillance et armes autonomes
L’impasse se concentre sur la demande du Pentagone d’un accès complet, à laquelle Anthropic a résisté en raison de préoccupations concernant l’utilisation abusive potentielle de l’IA pour la surveillance de masse nationale et le développement d’armes entièrement autonomes. Il ne s’agit pas simplement d’un désaccord commercial ; il s’agit d’un conflit éthique fondamental sur la puissance de déploiement de l’IA.
Les signataires de la lettre affirment que le Pentagone tente de dresser ces géants de la technologie les uns contre les autres par la peur, en espérant que l’un cédera pendant que les autres garderont le silence. La lettre appelle explicitement les dirigeants de Google et d’OpenAI à respecter les « lignes rouges » d’Anthropic contre ces applications controversées.
Soutien interne et déclarations publiques
Bien que les réponses officielles de Google et des dirigeants d’OpenAI restent en attente, des indications suggèrent une sympathie interne pour la position d’Anthropic. Le PDG d’OpenAI, Sam Altman, a déclaré dans une interview à CNBC qu’il ne pensait pas que le Pentagone devrait utiliser des mesures coercitives comme la Defense Production Act (DPA) contre les entreprises technologiques. Un porte-parole d’OpenAI a en outre confirmé que la société s’alignait sur la position d’Anthropic contre les armes autonomes et la surveillance de masse.
Jeff Dean, scientifique en chef de Google DeepMind, a également exprimé son opposition à X, affirmant que la surveillance de masse viole le quatrième amendement et risque d’être utilisée à des fins politiques.
Accès militaire existant et menace de recours à la force
L’armée utilise actuellement des outils d’IA tels que Grok de X, Gemini de Google et ChatGPT d’OpenAI pour des tâches non classifiées. Des négociations sont en cours pour étendre l’accès aux opérations classifiées. Cependant, Anthropic, malgré un partenariat existant avec le Pentagone, a adopté une ligne ferme contre l’utilisation de son IA à des fins de surveillance ou de systèmes d’armes entièrement autonomes.
Le secrétaire à la Défense, Pete Hegseth, a menacé Anthropic de la qualifier de « risque pour la chaîne d’approvisionnement » ou de forcer la conformité via le DPA si l’entreprise ne cède pas. Cela témoigne d’une volonté d’utiliser un levier important pour sécuriser l’accès aux capacités d’IA de pointe.
Cette situation met en évidence la tension croissante entre les considérations éthiques de l’industrie technologique et la demande d’outils avancés de l’armée. Il ne s’agit pas seulement d’une seule entreprise ; il s’agit d’un test pour déterminer comment le développement de l’IA sera régi à l’avenir et si le progrès technologique donnera la priorité au profit ou aux contraintes éthiques.




























