Le ministère américain de la Défense a annoncé vendredi des accords avec sept entreprises technologiques ouvrant l’accès à leurs modèles d’intelligence artificielle (IA) pour des opérations classifiées, y compris sur le champ de bataille.
SpaceX, maison mère du laboratoire d’IA xAI, OpenAI, Google, Nvidia, Reflection, Microsoft et la filiale d’Amazon AWS dédiée à l’informatique à distance (cloud) ont été retenus par le Pentagone.
Le gouvernement a écarté la start-up Anthropic, avec laquelle il est en contentieux, bien que son modèle, Claude, soit considéré comme l’un des plus performants au monde.
Fin février, le gouvernement Trump a décrété la rupture de tous les contrats le liant à Anthropic, une décision contestée en justice par la start-up californienne.
Il a alors décidé de diversifier ses prestataires d’IA pour ses activités classifiées, dont l’accès est restreint et qui concernent souvent la sécurité nationale.
Le Pentagone avait déjà fait état de conventions en ce sens avec OpenAI et Google après la rupture avec Anthropic.
«Ces partenariats vont accélérer la transformation de l’armée américaine en une force d’intervention tournée vers l’IA», a expliqué le ministère dans un communiqué.
Les modèles d’IA des sept sociétés retenues vont être déployés pour des opérations de niveau 6 et 7, les plus élevés au sein du Pentagone sur l’échelle de confidentialité.
Il serviront à «rendre plus efficaces la synthèse de données et la compréhension du contexte, et à contribuer à la prise de décision d’un combattant dans des environnements complexes», selon le ministère.
C’est dans ce cadre qu’a servi le seul modèle d’intelligence artificielle actuellement autorisé pour des opérations classifiées, Claude, lors de l’offensive américaine contre l’Iran.
Les décisions relatives aux attaques, le moment d’une frappe, le choix de la cible, restent prises par des militaires.
«Nous nous conformons à la loi et les humains prennent les décisions», a indiqué jeudi le secrétaire à la Défense, Pete Hegseth, en réponse à une question sur l’éventualité que le déclenchement d’une attaque soit confiée à une IA.
«L’IA ne prend pas de décisions sur une attaque mortelle», a-t-il ajouté.
La mise à l’écart d’Anthropic tranche avec le ton conciliant qu’avait récemment adopté Donald Trump au sujet de l’entreprise fondée par des anciens d’OpenAI.
«Nous allons nous entendre» avait ainsi assuré, mi-avril, le chef de l’État américain. «Ce sont des gens très intelligents et ils peuvent nous être très utiles.»
Jeudi, lors de son audition au Sénat, Pete Hegseth a néanmoins tenu un discours plus offensif, qualifiant le patron d’Anthropic, Dario Amodei, de «fou idéologique».
«Jugement humain»
En multipliant ses fournisseurs, le ministère veut «éviter de dépendre d’un seul prestataire et s’assurer d’une flexibilité à long terme».
Le différend entre le gouvernement Trump et Anthropic est né de la volonté de l’entreprise californienne d’empêcher l’utilisation de ses modèles pour de la surveillance de masse de la population américaine et pour des attaques mortelles.
Le ministère de la Défense estimait, lui, que la garantie d’un usage dans les limites de la loi était suffisante.
Selon une source proche du dossier parmi les prestataires, les accords annoncés vendredi garantissent que des missions comprenant une ou plusieurs tâches assurées par l’IA seront soumises à «la supervision et au jugement humains».
Lundi, une lettre signée par plus de 600 salariés de Google avait réclamé à la direction du groupe de renoncer à fournir à l’armée américaine ses modèles pour des opérations classifiées.
«Nous nous réjouissons de continuer à soutenir la modernisation (du ministère de la Défense) en amenant des solutions IA qui lui permettront d’accomplir ses missions les plus essentielles», a réagi auprès de l’AFP un porte-parole d’AWS, qui collabore déjà avec le Pentagone.
Quant à Nvidia, il n’a pas été sollicité pour son cœur de métier, à savoir les puces informatiques, mais pour avoir accès à son modèle d’IA, Nemotron.
