Anthropic : le gouvernement américain juge un risque « inacceptable » sur la sécurité nationale

Le gouvernement américain a récemment mis en lumière les préoccupations croissantes concernant la start-up d’intelligence artificielle (IA) Anthropic. Mardi, il a qualifié le risque que cette entreprise fait courir à la sécurité nationale d' »inacceptable » et a justifié son placement sur une liste d’entreprises à risque. Cette décision intervient alors qu’Anthropic s’apprête à contester cette classification en justice.

EN BREF

  • Le gouvernement américain juge le risque de la start-up Anthropic « inacceptable ».
  • Anthropic conteste cette décision et prévoit de porter plainte.
  • Les modèles d’IA d’Anthropic ont été utilisés dans des opérations militaires américaines.

Dans un document judiciaire consulté par l’AFP, le ministère de la Défense, récemment renommé « Department of War », a exprimé ses craintes concernant les implications potentielles de la collaboration avec Anthropic. Cette inquiétude repose sur la possibilité que la start-up puisse manipuler ses systèmes d’IA, compromettant ainsi les opérations militaires américaines.

« Les systèmes d’IA sont extrêmement vulnérables à la manipulation », a déclaré le ministère. Il a précisé qu’Anthropic pourrait, à sa discrétion, désactiver sa technologie ou modifier le comportement de son modèle durant des opérations, ce qui représente un risque inacceptable pour la sécurité nationale.

En réponse à cette classification, Anthropic a déposé une plainte en début mars contre plusieurs entités gouvernementales, dénonçant des sanctions qu’elle considère comme excessives. La start-up conteste notamment son inscription sur la liste des entreprises présentant un risque pour la sécurité nationale.

Cette décision s’inscrit dans un contexte où le président Donald Trump, à l’origine de ces mesures, cherchait à sanctionner des entreprises ne s’alignant pas avec les objectifs de surveillance de masse ou d’automatisation d’attaques militaires. En conséquence, la classification « à risque » empêche de facto toute entreprise fédérale de passer des contrats avec Anthropic.

Il est important de noter que les modèles d’IA d’Anthropic ont été utilisés pour la planification de l’offensive américano-israélienne contre l’Iran, soulignant ainsi l’importance stratégique de la technologie développée par cette start-up.

En parallèle, d’autres grandes entreprises technologiques américaines, comme Microsoft, ont exprimé leur soutien à Anthropic. Microsoft utilise le modèle Claude de la start-up tout en étant un fournisseur de l’armée américaine, ce qui illustre les enjeux complexes autour de la collaboration entre l’IA et les opérations militaires.

La défense du gouvernement a également soulevé des questions sur la fiabilité d’Anthropic en tant que partenaire dans un secteur aussi sensible. Le ministère a affirmé que le comportement de la start-up avait incité à se demander si elle pouvait être considérée comme un partenaire de confiance pour des contrats militaires.

Ce conflit met en lumière les tensions croissantes entre le développement rapide des technologies d’IA et les préoccupations relatives à la sécurité nationale. Alors qu’Anthropic se bat pour défendre sa position, le gouvernement américain continue d’évaluer les risques associés à ces nouvelles technologies, essentielles mais potentiellement dangereuses.