Google balaie la révolte de ses employés et se déclare "fier" de construire une IA pour le Pentagone de Trump
Google ignore la révolte de ses employés et revendique fièrement ses contrats d'IA classifiés avec le Pentagone de Trump. Retour sur un revirement éthique majeur et ses implications au Royaume-Uni.
Google a un nouveau mot favori, et ce n'est pas "non". L'entreprise qui avait autrefois promis de ne pas faire le mal a écarté d'un revers de main une lettre ouverte signée par des centaines de ses propres employés et a annoncé qu'elle était "fière" d'effectuer des travaux d'IA classifiés pour le Pentagone de Donald Trump. Difficile de dire qu'elle a lu la pièce.
Selon un article de The Independent, la direction de Google a rejeté les préoccupations soulevées par ses employés concernant l'approfondissement de la relation de l'entreprise avec le Département américain de la Défense. L'accord donne au Pentagone accès aux modèles d'IA de Google pour des travaux militaires classifiés, et les cadres du dernier étage ne pourraient pas être plus satisfaits.
En quoi consiste concrètement cet accord
Google est l'une des huit entreprises technologiques autorisées à intégrer leur IA dans les réseaux les plus secrets du Pentagone. La liste complète, pour dissiper tout doute, est la suivante : Google, Microsoft, Amazon Web Services, OpenAI, Nvidia, Oracle, SpaceX et Reflection. Anthropic, la structure axée sur la sécurité à l'origine de Claude, a été délibérément exclue après avoir été étiquetée comme un "risque pour la chaîne d'approvisionnement", une désignation qu'elle conteste désormais devant les tribunaux.
Le contrat lui-même permettrait au Pentagone d'utiliser l'IA de Google "à toute fin légale", avec des exclusions censées écarter les armes autonomes et la surveillance de masse. Les sceptiques noteront que "toute fin légale" fait beaucoup de travail dans cette phrase.
La lettre des employés qui n'a pas fait l'effet escompté
La résistance interne n'était pas anodine. Une lettre ouverte adressée au directeur général Sundar Pichai a d'abord recueilli plus de 580 signatures, dont celles de plus de 20 directeurs et vice-présidents, ainsi que de chercheurs seniors de Google DeepMind. Ce nombre aurait ensuite grimpé entre 950 et 1 000 à mesure que la nouvelle se répandait.
Les signataires ont mis en garde contre les "utilisations contraires à l'éthique et dangereuses" de l'IA militaire et ont exhorté la direction à refuser les contrats de défense classifiés. Un chercheur de DeepMind, Andreas Kirsch, a publié sur X qu'il était "sans voix" et a qualifié l'accord de "honteux".
La réponse de Google a essentiellement été un haussement d'épaules poli.
Ce n'est pas la première rébellion des employés de Google
Si tout cela vous semble familier, c'est parce que ça l'est. En 2018, environ 4 000 employés avaient signé une pétition contre le Projet Maven, le programme du Pentagone qui utilisait l'IA de Google pour analyser des images de drones. Au moins une douzaine d'employés avaient démissionné. Google avait cédé, refusé de renouveler le contrat et l'avait discrètement laissé expirer en mars 2019.
Puis était venu un ensemble de principes d'IA édulcorés promettant que l'entreprise ne construirait pas d'armes ni d'outils de surveillance violant les normes internationales. C'était un moment de conscience d'entreprise, ou du moins une imitation convaincante.
Ce moment n'a pas survécu à une deuxième administration Trump. Peu après les résultats des élections de 2024, Google a révisé ces principes d'IA et a discrètement supprimé l'interdiction explicite des travaux liés aux armements. La feuille de vigne, il s'avère, était lavable en machine.
Pourquoi ce revirement maintenant ?
La réponse honnête, c'est l'argent et l'élan. Google a déjà déployé son IA Gemini auprès d'environ trois millions de personnels du Pentagone et détient une part du contrat Joint Warfighting Cloud Capability d'une valeur de 9 milliards de dollars. Se retirer des travaux classifiés signifierait laisser une somme colossale sur la table pendant que Microsoft, Amazon et OpenAI la ramasseraient avec plaisir.
Le responsable de l'IA du Pentagone, Cameron Stanley, a déclaré à CNBC que dépendre d'un seul modèle d'IA n'est "jamais une bonne chose", présentant l'approche multi-fournisseurs comme une couverture stratégique. Traduction : répartir les contrats, répartir la dépendance, et maintenir chaque grand patron de la tech sur un pied d'égalité amical.
Éthique sélective, ou simplement communication sélective ?
C'est là que ça devient intéressant. Selon Tom's Hardware, Google s'est simultanément retiré d'un programme de drones en essaim distinct d'une valeur de 100 millions de dollars. L'entreprise est donc prête à tracer une ligne, juste pas en ce qui concerne l'IA classifiée pour le Pentagone.
Cela suggère deux choses. Soit Google dispose d'un cadre éthique précis et réfléchi qu'il a choisi de ne pas partager avec le public, soit il improvise au fur et à mesure selon les contrats qui attirent les pires manchettes. Devinez lequel semble le plus plausible.
Pourquoi cela concerne les lecteurs au Royaume-Uni
Si vous vivez en Grande-Bretagne, la tentation est de classer ça sous "problème américain" et de passer à autre chose. Résistez-y. Les modèles d'IA qui alimentent les systèmes militaires américains classifiés sont les mêmes modèles polyvalents qui s'intègrent dans votre boîte mail, votre téléphone, votre lieu de travail et de plus en plus dans les devoirs de vos enfants.
La frontière entre l'IA grand public et l'IA militaire est un choix politique, pas technique. Quand cette frontière bouge, elle bouge pour tout le monde. Les achats de défense britanniques s'appuient également massivement sur les mêmes fournisseurs américains, ce qui signifie que les décisions prises à Mountain View ont tendance à se répercuter à Whitehall.
Il y a aussi la question du précédent. Une fois qu'une entreprise a franchi une ligne et constaté que le cours de l'action ne s'est pas effondré, la ligne a tendance à rester franchie. Le "toute fin légale" d'aujourd'hui devient la référence de demain.
Anthropic et l'outsider dans une position délicate
Hors du cercle se trouve Anthropic, qui aurait refusé les termes du contrat du Pentagone et a aussitôt été désignée comme un risque pour la chaîne d'approvisionnement. Des affirmations non vérifiées indiquent que l'armée américaine aurait néanmoins utilisé Claude d'Anthropic en lien avec le conflit iranien, bien que cela n'ait pas été corroboré de manière indépendante et doive être traité avec prudence.
Trump lui-même a publiquement laissé entendre qu'Anthropic "se met en ordre de marche", ce qui est l'équivalent politique de tapoter sa montre. Que l'entreprise tienne bon ou négocie discrètement son retour est la sous-intrigue à suivre.
Ce qu'il faut retenir de tout cela
Le message de Google à ses employés est suffisamment clair. L'époque où une lettre interne bien organisée pouvait changer la direction de l'entreprise est révolue. Le Projet Maven, c'était 2018. Le nouveau mode opératoire consiste à remercier les employés pour leurs retours, à mettre à jour la page des principes d'IA, et à signer le contrat quand même.
Pour les utilisateurs, la conclusion pratique est de cesser de supposer que l'entreprise technologique dont vous utilisez les produits chaque jour partage vos valeurs, ou en a même de stables. Leurs valeurs sont ce que le climat politique actuel et l'appel aux résultats trimestriels exigent qu'elles soient.
Pour les employés qui ont signé la lettre, la question plus difficile est de savoir quoi faire ensuite. L'histoire suggère que les démissions, les fuites et la pression publique sont les seuls outils qui ont jamais fait bouger Google. Un mémo bien tourné, malheureusement, n'en fait pas partie.
Lire l'article original sur la source.
