Cette décision pourrait entraîner l'annulation d'un contrat d'une valeur allant jusqu'à 200 millions de dollars entre les deux parties.
La controverse a éclaté après qu'Anthropic a refusé de lever les barrières techniques qui empêchaient la technologie de l'entreprise d'être utilisée pour contrôler les armes automatiques ou déployer la surveillance sur le territoire américain.
Le porte-parole du Pentagone, Sean Parnell, a écrit sur le réseau social X que le département de la guerre n'avait pas l'intention d'utiliser l'IA pour surveiller massivement les citoyens américains et ne voulait pas non plus développer d'armes autonomes qui fonctionnent complètement sans contrôle humain.
Il a déclaré que la demande du Pentagone d'utiliser le modèle d'IA d'Anthropic à des fins légales et a fixé un délai pour que l'entreprise prenne une décision. S'il n'est pas d'accord, le Pentagone mettra fin à la coopération et considérera Anthropic comme un "risque de chaîne d'approvisionnement".
Dans une déclaration du 26 février, le PDG d'Anthropic, Dario Amodei, a affirmé que la société s'opposait à l'utilisation de son modèle pour la surveillance intérieure à grande échelle ou l'exploitation entièrement automatisée des armes. Il a estimé que les systèmes d'IA avancés actuels ne sont pas suffisamment fiables pour les missions vitales.
Une source proche de l'entreprise a déclaré qu'Anthropic n'accuse pas le Pentagone d'avoir l'intention de déployer l'IA dans ces directions, mais seulement de fournir une évaluation de la sécurité technologique.
Selon des sources, l'IA peut se comporter de manière imprévisible dans de nouvelles situations, ce qui entraîne le risque de tirer par erreur, d'échouer dans la tâche ou d'une escalade involontaire. L'utilisation de l'IA pour la surveillance à grande échelle est également préoccupante car la loi actuelle ne limite pas clairement les déductions que l'IA peut tirer des mégadonnées.
M. Amodei a déclaré que si le contrat était annulé, Anthropic soutiendrait le processus de transfert à un autre fournisseur. Cependant, il a souligné que les pressions du Pentagone, notamment la menace d'exclure l'entreprise du système ou l'invocation de la loi sur la production de défense, ne changeraient pas la position de l'entreprise.
Le vice-ministre de la Guerre Emil Michael a répondu sur X, critiquant M. Amodei et affirmant que le Pentagone respecte toujours la loi et ne laisse aucune entreprise technologique à but lucratif influencer la politique de défense.
Anthropic, soutenue par Google et Amazon, a actuellement un contrat avec le département américain de la guerre d'une valeur maximale de 200 millions de dollars. La société a déclaré qu'elle était toujours prête à poursuivre le dialogue et à s'assurer que les opérations ne soient pas interrompues.
Plus de 200 employés de Google et d'OpenAI ont signé des lettres ouvertes soutenant la position d'Anthropic. Google et OpenAI n'ont pas fait de commentaires immédiats.
Anthropic est une société d'intelligence artificielle basée à San Francisco, fondée en 2021 par d'anciens dirigeants d'OpenAI, dont Dario Amodei. La société développe des modèles d'IA tels que Claude et reçoit d'importants investissements de Google et Amazon.