Les employés de Google protestent contre un accord potentiel avec le Pentagone concernant l’utilisation de l’IA à des fins militaires

6

Plus de 600 employés de Google ont envoyé une lettre ouverte au PDG Sundar Pichai, exhortant l’entreprise à rejeter un éventuel contrat avec le département américain de la Défense. Le personnel, y compris les directeurs de haut rang et les vice-présidents de Google DeepMind et de Google Cloud, sonne l’alarme quant à la possibilité que Gemini AI de Google soit utilisée dans des opérations militaires classifiées.

Le conflit central : sécurité contre flexibilité opérationnelle

Au cœur du différend se trouve un désaccord sur la portée du déploiement de l’IA. Selon les organisateurs de la lettre, Google a tenté de négocier des garanties dans ses contrats pour empêcher que la technologie soit utilisée pour des armes autonomes ou pour une surveillance de masse nationale.

Cependant, le Pentagone ferait pression pour un langage beaucoup plus large, demandant que l’IA soit disponible pour “toutes les utilisations licites.”

Pour les salariés, cette distinction est essentielle :
Le point de vue des employés : Ils soutiennent que les « charges de travail classifiées » sont intrinsèquement opaques, ce qui rend impossible de contrôler si la technologie est utilisée pour profiler des individus ou cibler des civils.
Le point de vue du Pentagone : Le ministère de la Défense recherche une « flexibilité opérationnelle », qui lui permettrait d’utiliser les outils selon les besoins sans barrières contractuelles restrictives.

Une tendance croissante de friction éthique dans les grandes technologies

Cette révolte interne chez Google n’est pas un incident isolé ; cela reflète un fossé grandissant entre les progrès rapides de l’IA et les limites éthiques fixées par les entreprises qui les créent. L’industrie technologique se retrouve de plus en plus prise entre les contrats gouvernementaux lucratifs et les positions morales de sa propre main-d’œuvre.

La situation reflète un récent affrontement très médiatisé impliquant Anthropic, une autre startup leader dans le domaine de l’IA. Le PDG d’Anthropic, Dario Amodei, a refusé d’accorder au Pentagone un accès illimité à leurs systèmes, invoquant des craintes selon lesquelles l’IA pourrait être utilisée pour saper les valeurs démocratiques ou pour effectuer des tâches que la technologie n’est pas encore suffisamment sûre pour gérer. Ce refus a conduit à une confrontation directe avec le gouvernement américain, aboutissant à un ordre du président Donald Trump de cesser l’utilisation du chatbot Claude d’Anthropic par les ministères.

Leçons du passé : l’ombre du projet Maven

La protestation actuelle contre Google a un poids historique important. En 2018, une vague similaire de troubles parmi les employés a contraint Google à se retirer du Projet Maven, une initiative du Pentagone qui utilisait l’IA pour analyser les images de drones.

Le groupe actuel des salariés réclame un changement permanent de la politique de l’entreprise, et non pas seulement le rejet d’un seul contrat. Leurs revendications incluent :
1. L’annulation formelle de toute initiative ressemblant au projet Maven.
2. La création et l’application publique d’une politique claire stipulant que Google et ses sous-traitants ne construiront jamais de technologie de guerre.

“Nous voulons que l’IA profite à l’humanité, et non qu’elle soit utilisée de manière inhumaine ou extrêmement nuisible”, déclarent les employés dans leur lettre.

Conclusion

L’impasse chez Google met en évidence une tension fondamentale à l’ère de l’IA : alors que les agences militaires et de renseignement cherchent à intégrer des modèles avancés dans leurs opérations, les ingénieurs qui construisent ces modèles exigent de plus en plus de transparence et de limites éthiques pour éviter toute utilisation abusive.