Le Pentagone a attribué jeudi 5 mars une désignation formelle de risque de chaîne d'approvisionnement au laboratoire d'intelligence artificielle Anthropic, limitant l'utilisation d'une technologie qu'une source a déclaré être utilisée pour des opérations militaires en Iran.
L'étiquette « risque de chaîne d'approvisionnement », confirmée dans une déclaration d'Anthropic, est effective immédiatement et interdit aux contractants gouvernementaux d'utiliser la technologie d'Anthropic dans leur travail pour l'armée américaine.
Mais les entreprises peuvent toujours utiliser Claude d'Anthropic dans d'autres projets non liés au Pentagone, a écrit le PDG Dario Amodei dans la déclaration. Il a déclaré que la désignation a « une portée étroite » et que les restrictions s'appliquent uniquement à l'utilisation de l'IA d'Anthropic dans les contrats du Pentagone.
« Cela s'applique clairement uniquement à l'utilisation de Claude par les clients comme partie directe des contrats avec le Département de la Guerre, et non à toute utilisation de Claude par les clients qui ont de tels contrats. »
La désignation de risque fait suite à un différend de plusieurs mois concernant l'insistance de l'entreprise sur des garanties que le Département de la Défense, que l'administration Trump appelle le Département de la Guerre, a déclaré aller trop loin. Dans sa déclaration, Amodei a réitéré que l'entreprise contesterait la désignation en justice.
Ces derniers jours, Anthropic et le Pentagone ont discuté de plans possibles pour que le Pentagone cesse d'utiliser Claude, a déclaré Amodei dans la déclaration de jeudi. Les deux parties ont discuté de la manière dont Anthropic pourrait encore travailler avec l'armée sans démanteler ses garanties, a-t-il ajouté.
Cependant, dans un message sur X tard jeudi, le Directeur de la technologie (CTO) du Pentagone Emil Michael a déclaré qu'il n'y a pas de négociation active du Département de la Défense avec Anthropic.
Amodei s'est également excusé pour un mémo interne publié mercredi par le site d'actualités technologiques The Information. Dans le mémo, écrit à l'origine vendredi dernier, Amodei a déclaré que les responsables du Pentagone n'aimaient pas l'entreprise en partie parce que « nous n'avons pas fait d'éloges à la manière d'un dictateur envers Trump ».
La publication du mémo interne est survenue alors que les investisseurs d'Anthropic s'efforçaient de contenir les dégâts causés par le différend de l'entreprise avec le Pentagone.
Le Département de la Défense n'a pas immédiatement répondu aux demandes de commentaires.
L'action représente un désaveu extraordinaire par les États-Unis contre une entreprise technologique américaine qui a été plus précoce que ses rivaux à travailler avec le Pentagone. L'action intervient alors que le département continue de s'appuyer sur la technologie d'Anthropic pour fournir un soutien aux opérations militaires, y compris en Iran, selon une personne familière avec le sujet.
Claude est probablement utilisé pour analyser les renseignements et assister à la planification opérationnelle.
Un porte-parole de Microsoft a déclaré que les avocats de l'entreprise ont étudié la désignation et ont conclu que : « Les produits Anthropic, y compris Claude, peuvent rester disponibles pour nos clients — autres que le Département de la Guerre — via des plateformes telles que M365, GitHub et Microsoft's AI Foundry. »
Microsoft peut continuer à travailler avec Anthropic sur des projets non liés à la défense, a ajouté le porte-parole.
Amazon, un investisseur dans Anthropic et un client important du modèle Claude de l'entreprise, n'a pas immédiatement répondu à une demande de commentaire en dehors des heures de bureau habituelles.
Maven Smart Systems de Palantir – une plateforme logicielle qui fournit aux armées des analyses de renseignement et du ciblage d'armes – utilise plusieurs invites et flux de travail qui ont été construits en utilisant le code Claude d'Anthropic, a rapporté Reuters plus tôt.
Anthropic a été le plus agressif de ses rivaux pour courtiser les responsables de la sécurité nationale américaine. Mais l'entreprise et le Pentagone sont en désaccord depuis des mois sur la manière dont l'armée peut utiliser sa technologie sur le champ de bataille. Ce conflit a éclaté publiquement plus tôt cette année.
Anthropic a refusé de reculer sur les interdictions pour son Agents d'IA Claude d'alimenter des armes autonomes et la surveillance de masse américaine. Le Pentagone a résisté, affirmant qu'il devrait pouvoir utiliser cette technologie selon les besoins, tant qu'elle respecte la loi américaine.
L'étiquette « risque de chaîne d'approvisionnement » donne maintenant à Anthropic un statut que Washington avait jusqu'à présent généralement utilisé pour des adversaires étrangers. Une action américaine similaire a été prise pour retirer le géant technologique chinois Huawei des chaînes d'approvisionnement du Pentagone. – Rappler.com

