Le Pentagone met la pression sur Anthropic pour lever les restrictions de son IA

Ce mardi 24 fĂ©vrier, le ministre amĂ©ricain de la DĂ©fense, Pete Hegseth, a donnĂ© un ultimatum Ă  la start-up d’intelligence artificielle Anthropic. Il a exigĂ© que la sociĂ©tĂ© californienne, crĂ©atrice de l’IA Claude, lĂšve toutes les restrictions Ă  l’utilisation de son modĂšle par le Pentagone.

EN BREF

  • Le ministre de la DĂ©fense a fixĂ© un ultimatum Ă  Anthropic jusqu’Ă  vendredi 17h01.
  • En cas de refus, le Pentagone pourrait utiliser le Defense Production Act.
  • Anthropic a dĂ©jĂ  acceptĂ© d’autres demandes, mais refuse l’utilisation de Claude pour la surveillance de masse et les attaques mortelles.

La start-up, fondĂ©e en 2021 par d’anciens membres d’OpenAI, a jusqu’Ă  vendredi, 17h01, heure de Washington, pour se conformer Ă  cette demande. Si elle ne s’exĂ©cute pas, le ministre Hegseth envisage de faire appel au Defense Production Act de 1950. Cette loi permet au gouvernement de contraindre les entreprises privĂ©es Ă  produire des biens pour la dĂ©fense nationale.

Au-delĂ  de cet ultimatum, le ministre pourrait Ă©galement inscrire Anthropic sur une liste de sociĂ©tĂ©s prĂ©sentant un « risque pour les approvisionnements ». Les entreprises figurant sur cette liste subissent des restrictions sĂ©vĂšres concernant leurs contrats avec l’État. Le contrat de 200 millions de dollars entre Anthropic et le gouvernement pourrait ainsi ĂȘtre automatiquement annulĂ©.

Cette situation survient aprĂšs une rĂ©union entre Pete Hegseth et Dario Amodei, le directeur d’Anthropic. Le ministĂšre a rĂ©cemment demandĂ© Ă  ses fournisseurs d’IA de lever les restrictions concernant l’utilisation de leurs modĂšles, afin d’Ă©largir les cas d’usage tout en respectant la lĂ©galitĂ©. Bien que la plupart des entreprises aient acceptĂ©, Anthropic a choisi de maintenir certaines limitations pour son IA Claude.

Les restrictions concernent deux domaines spĂ©cifiques : la surveillance de masse des populations et l’automatisation d’attaques lĂ©tales. Un porte-parole d’Anthropic a affirmĂ© que l’entreprise continue de dialoguer de bonne foi pour dĂ©terminer les usages possibles de l’IA, tout en cherchant Ă  garantir que ses modĂšles contribuent Ă  la sĂ©curitĂ© nationale de maniĂšre responsable.

Un haut responsable du ministĂšre a rassurĂ© le Financial Times en affirmant que la technologie d’Anthropic serait utilisĂ©e par l’armĂ©e, mĂȘme si Dario Amodei s’y oppose. Cette tension souligne les dĂ©fis auxquels font face les entreprises d’IA dans un contexte de sĂ©curitĂ© nationale croissant.

Anthropic, qui prĂŽne une approche Ă©thique de l’intelligence artificielle, avait publiĂ© dĂ©but 2026 une « constitution » pour son IA Claude. Ce document dĂ©finit des instructions visant Ă  prĂ©venir des actions jugĂ©es dangereuses. La situation actuelle met en lumiĂšre les dilemmes auxquels sont confrontĂ©es les start-ups d’IA, tiraillĂ©es entre leurs principes Ă©thiques et les exigences gouvernementales.

Alors que le dĂ©lai imposĂ© par le Pentagone approche, toutes les parties impliquĂ©es cherchent Ă  trouver un Ă©quilibre entre innovation technologique et responsabilitĂ© Ă©thique. L’issue de cette situation pourrait avoir des rĂ©percussions significatives sur le paysage de l’intelligence artificielle aux États-Unis.