Le Pentagone américain bannit Anthropic après un conflit sur les limites éthiques d’utilisation de ses modèles d’IA. OpenAI remporte le contrat.
Depuis vendredi soir, OpenAI peut se targuer d’être le nouveau partenaire IA exclusif du Pentagone, le département de la Défense des États-Unis. C’est ce qu’a annoncé le PDG Sam Altman lui-même via X. Le Pentagone déploiera les modèles d’IA d’OpenAI « au sein de son réseau classifié ». L’annonce d’Altman est intervenue quelques heures seulement après la mise au ban de son concurrent Anthropic.
Anthropic banni
Jusqu’à récemment, Anthropic était encore le fournisseur d’IA privilégié du ministère. Un désaccord sur les directives éthiques s’est toutefois avéré être un point de rupture insurmontable dans leur relation commerciale. Anthropic fixe une limite stricte à l’utilisation de ses modèles d’IA pour la surveillance de masse des citoyens ou le développement d’armes autonomes. L’administration américaine a toutefois estimé qu’il n’appartient pas à une entreprise de définir ces limites.
lire aussi
Le Pentagone ébranle l’IA éthique : Anthropic menacé d’un label « risque »
Anthropic avait jusqu’à vendredi pour céder aux exigences du gouvernement. L’entreprise n’ayant pas mis d’eau dans son vin, le Pentagone a coupé impitoyablement tous les liens. Le chef du Pentagone et ancien présentateur de Fox News, Pete Hegseth, a fait savoir qu’Anthropic était désormais étiqueté comme un « risque pour la sécurité nationale ».
Cela signifie que les produits et services d’Anthropic sont désormais interdits dans toutes les agences gouvernementales. Le président Donald Trump impose une « interdiction immédiate ». En principe, toutes les entreprises fournissant des services au Pentagone ne peuvent plus non plus utiliser Anthropic, conformément aux directives gouvernementales strictes pour les fournisseurs. Le président Trump a déclaré sur sa plateforme Truth Social qu’il utiliserait « tout le pouvoir présidentiel » pour faire respecter cette décision.
OpenAI en profite
« Le malheur des uns fait le bonheur des autres », a-t-on dû penser chez OpenAI. La disparition d’Anthropic a déroulé le tapis rouge pour qu’OpenAI s’empare du contrat du Pentagone. Quelques heures seulement après l’expiration du délai imparti à Anthropic, Altman a annoncé ce nouveau partenariat.
L’annonce reste entourée du flou caractéristique des contrats militaires. Le Pentagone déploiera les modèles d’OpenAI dans son réseau « secret ». De son côté, OpenAI prendra des « mesures techniques » pour s’assurer que ses modèles ne commettent pas de mutinerie. L’entreprise détache également temporairement des ingénieurs auprès du ministère pour assurer la fluidité de la transition.
Altman assure que ses modèles ne seront pas utilisés pour la surveillance ou les armes autonomes. Cette promesse aurait été incluse dans l’accord. « Le ministère de la Guerre a fait preuve d’un profond respect pour la sécurité, ce qui se reflète dans la législation et les politiques », écrit Altman. Le fait que le différend avec Anthropic portait précisément sur le refus de cette dernière de fournir ces capacités soulève plus de questions qu’il n’en résout pour l’instant.
Un précédent dangereux
Anthropic ne s’avoue pas vaincu sans combattre. Dans une déclaration publique, Anthropic qualifie la décision du Pentagone de « juridiquement incorrecte » et de « précédent dangereux » pour les entreprises collaborant avec le gouvernement. Anthropic assure que les utilisateurs de Claude n’en subiront aucun impact.
Le gouvernement américain donne ainsi clairement le ton aux entreprises d’IA américaines. Quiconque suit une boussole morale différente est impitoyablement sanctionné. Étant donné que le centre de gravité du marché de l’IA se situe aux États-Unis et que les outils d’IA américains sont également utilisés en Europe, il s’agit de bien plus qu’une simple affaire intérieure.
