Accueil / Tech / Le malaise monte chez Google face à une possible collaboration IA avec le Pentagone

Le malaise monte chez Google face à une possible collaboration IA avec le Pentagone

Le malaise monte chez Google face à une possible collaboration IA avec le Pentagone

Temps de lecture : 3 min

Points clés à retenir

  • Fronde interne : 950 employés de Google, dont des cadres, exigent l’arrêt de tout projet IA classifié avec le Pentagone.
  • Projet Gemini : Discussions pour que le DoD utilise les modèles IA sans restriction militaire, ce qui provoque des craintes éthiques.
  • Précédents tendus : Anthropic a déjà refusé un contrat de 200 M$, tandis qu’OpenAI a imposé des garde-fous.

La révolte des 950

Imagine un peu la scène : 950 employés de Google – oui, presque un millier – qui envoient une lettre ouverte à leur big boss Sundar Pichai, le 27 avril 2026. Dedans, ils demandent clairement : « Arrêtez toute collaboration avec le Pentagone sur des programmes IA classifiés. »

Ce qui frappe, c’est que parmi les signataires, on trouve des vice-présidents, des ingénieurs de Google DeepMind, et même des cadres dirigeants. Pas juste des petits nouveaux. Ça donne du poids à la mobilisation, tu vois ?

Dans le texte, ils expliquent : « Nous savons que ces systèmes peuvent concentrer le pouvoir et qu’ils commettent des erreurs. » Et ils insistent sur le fait que leur proximité avec la tech leur donne la responsabilité d’empêcher les usages dangereux.

Gemini dans le viseur du DoD

Selon The Information, Google serait en pleine discussion avec le Pentagone pour que le département de la Défense puisse intégrer Gemini dans des environnements classifiés. Le but ? Utiliser ces modèles pour « toutes fins légales », selon un projet d’accord.

A lire aussi :  Snowflake mise sur l'IA agentique pour séduire les pros de la data

Sauf que cette formulation vague, ça crispe. Un employé, sous couvert d’anonymat, a déclaré : « Aucune garantie que nos outils ne serviront pas à causer des dégâts ou à rogner les libertés. »

Et le mouvement ne concerne pas que Google. Du côté d’Anthropic, la start-up a refusé un contrat de 200 millions de dollars avec le DoD. Pourquoi ? Parce qu’elle ne voulait pas que Claude soit utilisé sans restrictions, surtout en contexte militaire. Conséquence : le Pentagone l’a classée comme « risque pour la chaîne d’approvisionnement ». Pas cool.

OpenAI, de son côté, a renégocié un contrat et ajouté une clause : interdiction de surveillance de masse ou de suivi ciblé des citoyens américains via des données commerciales. Un petit pas, mais pour les employés de Google, ça ne suffit pas.

Un conflit éthique qui dure

Ce débat, Google le connaît bien. Souviens-toi de 2018, quand des salariés s’étaient opposés à des projets militaires. L’entreprise avait alors promulgué des principes éthiques : pas de technologies « causant des dommages », pas d’armes, pas de surveillance.

Mais depuis, ces principes ont été revus et ça inquiète. Dans leur lettre, les signataires préviennent : « Faire le mauvais choix aujourd’hui nuirait irréparablement à la réputation de Google. » Et ils ajoutent que des vies humaines et des libertés civiles sont déjà en danger à cause de mésusages.

Bref, la pomme de discorde est bien là : peut-on laisser une entreprise privée dicter l’usage de l’IA dans des programmes militaires sans garde-fou solide ? Personnellement, je trouve que la question mérite qu’on s’y attarde. Et toi ?

Répondre

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *