Le Pentagone accroît la pression sur Anthropic avec une date limite

Le Pentagone accroît la pression sur Anthropic avec une date limite

Le Pentagone américain intensifie la pression sur Anthropic pour qu’elle fournisse une IA sans restrictions éthiques. Anthropic ne semble pas avoir l’intention de céder, malgré les menaces du gouvernement.

Le Pentagone et le secrétaire américain à la Défense, Pete Hegseth, accentuent la pression sur Anthropic. L’entreprise d’IA doit abandonner ses restrictions sur l’utilisation de l’IA d’ici vendredi, sous peine d’en subir les conséquences. Celles-ci ne sont pas négligeables : si Hegseth n’obtient pas gain de cause, il souhaite désigner Anthropic comme un « risque pour la chaîne d’approvisionnement ».

Ce label, normalement destiné aux entreprises ayant des liens avec des puissances étrangères hostiles, affecterait Anthropic économiquement. En effet, ni le Pentagone ni les entreprises traitant avec lui ne seraient autorisés à collaborer avec une telle société à risque.

Conditions d’utilisation

Le débat porte sur les conditions d’utilisation liées au modèle d’IA Claude d’Anthropic. L’entreprise est prête à faire preuve de flexibilité concernant ces conditions pour un usage au sein de la défense américaine, mais elle maintient certains principes. Anthropic souhaite ainsi empêcher que Claude ne soit utilisé pour espionner massivement les citoyens américains ou pour développer des armes capables de tirer de manière autonome (sans aucune forme d’intervention humaine).

Hegseth estime qu’il n’appartient pas à Anthropic d’imposer de telles conditions et choisit une approche agressive pour faire plier l’entreprise. Nous avons déjà décrit précédemment comment cette intimidation sans précédent du gouvernement sur les directives éthiques internes d’une entreprise peut être néfaste pour le développement d’une IA éthique en général.

DPA

Le ministre menace désormais d’utiliser le Defense Production Act (DPA). Celui-ci permet aux États-Unis, au nom de la sécurité nationale, de contraindre une entreprise à développer un produit spécifique sur mesure.

lire aussi

Le Pentagone ébranle l’IA éthique : Anthropic menacé d’un label « risque »

Le climat des affaires aux États-Unis change sous la pression du gouvernement : quiconque a une opinion politique différente de celle du gouvernement actuellement au pouvoir peut s’attendre à des sanctions économiques.

Le Pentagone s’est en fait mis lui-même dans l’embarras. À la fin de son mandat, le président Biden a rédigé un mémorandum stipulant que le département de la Défense ne doit pas se lier à un seul système d’IA et doit collaborer avec plusieurs fabricants. Cela n’a pas été fait sous le président Trump : Claude d’Anthropic est actuellement le seul système approuvé pour une utilisation au sein de la défense américaine. En d’autres termes, le Pentagone ne peut pas simplement écarter Anthropic.

Aucune intention de céder

Malgré cette pression, Anthropic ne plie pas. Reuters sait, de sources anonymes, que le PDG Dario Amodei n’a pas l’intention de lever les restrictions concernant l’IA pour la surveillance de masse nationale des citoyens et les robots tueurs autonomes.

La date limite imposée par Hegseth à Anthropic expire vendredi après-midi. Si Amodei campe sur ses positions, le gouvernement pourra soit invoquer le DPA, soit désigner Anthropic comme une entreprise à risque. Ces deux actions sont sans précédent dans le contexte d’un différend sur des conditions d’utilisation.