Le ministère américain de la Défense a décidé de renouveler ses alliances en matière d'intelligence artificielle (IA) pour ses opérations classifiées, optant pour de nouveaux partenaires et laissant de côté la start-up Anthropic, malgré les performances remarquables de son modèle innovant, Claude.
Le Pentagone a officiellement annoncé, lors d'un communiqué diffusé en fin de semaine, s'être associé à sept compagnies technologiques majeures telles que Nvidia, Google, Microsoft, et la branche cloud d'Amazon, AWS. Ces entreprises fourniront des modèles d'IA au ministère de la Défense pour l'exécution d'opérations sensibles.
La décision d'écarter Anthropic, selon plusieurs médias, notamment Le Parisien, découle d'un contentieux en cours entre l'entreprise californienne et le gouvernement. Cependant, Anthropic s'est vu reprocher de ne plus être en mesure d'assurer l'utilisation de ses technologies dans la surveillance de masse, ce qui a conduit à la rupture des contrats qui la liaient au Pentagone.
Un choix stratégique pour l'avenir
Cette initiative s'inscrit dans une volonté du gouvernement d'étendre ses options en matière d'IA, surtout pour des opérations de niveaux critiques (6 et 7) au sein du Pentagone, comme l'a expliqué le ministère. Les modèles d'IA sélectionnés sont attendus pour optimiser la synthèse des données et la prise de décision dans des contextes complexes.
Pour l'instant, Claude d'Anthropic avait été le seul modèle en service pour des missions classifiées, ayant été utilisé lors d'opérations ciblées, telles que les frappes américaines contre l'Iran. Bien que la montée en puissance de l'IA ait permis d'accélérer des interventions, les décisions finales demeurent sous le contrôle de militaires aguerris.
Vers une indépendance stratégique
Le Pentagone a justifié sa recherche d'une gamme diversifiée de fournisseurs par un besoin de « flexibilité à long terme », afin de ne pas dépendre d'une seule source d'approvisionnement. « Nous souhaitons garantir que nos partenaires soient en mesure de proposer des solutions adaptées à nos besoins opérationnels », a souligné un porte-parole du ministère.
Celui-ci a également précisé que ce choix répond à une nécessité de pouvoir s'appuyer sur des développements technologiques conformes aux impératifs de la loi. La tension entre Anthropic et le gouvernement est apparue sur fond de désaccords concernant l'utilisation de ses modèles.
Dans un contexte de débats éthiques croissants sur l'utilisation de l'IA, une lettre récemment publiée a été signée par plus de 600 employés de Google. Ils exhortent la direction à renoncer à fournir des modèles d’IA pour des projets militaires, mettant en lumière les préoccupations internes autour des conséquences de ces technologies sur la société.







