Un programme d’intelligence artificielle du Pentagone, connu sous le nom de Project Maven, joue un rôle central dans la campagne militaire américaine contre l’Iran. Cette initiative, lancée en 2017, illustre un tournant majeur dans la façon dont la guerre est menée, intégrant des innovations technologiques de la Silicon Valley tout en soulevant des questions éthiques fondamentales.
EN BREF
- Project Maven aide à transformer des données brutes en actions militaires ciblées.
- L’IA générative facilite l’interaction avec le système pour les militaires.
- Les préoccupations éthiques persistent, notamment après le retrait de Google du projet.
Conçu pour aider les analystes militaires à gérer le flux d’images provenant des drones, Project Maven a évolué pour devenir un système sophistiqué de ciblage assisté par IA. Ce programme permet aux opérateurs de traiter rapidement d’énormes quantités de données, leur permettant de repérer des informations cruciales qui pourraient n’apparaître qu’une fraction de seconde.
Huit ans après son lancement, Maven a intégré des capacités qui transforment la manière dont les opérations militaires sont planifiées et exécutées. Selon Aalok Mehta, expert du Wadhwani AI Center, ce système agit comme une surcouche, fusionnant les données provenant de capteurs, l’imagerie satellitaire et les renseignements sur les forces amies et ennemies. Ainsi, Maven permet d’analyser les flux de données à une vitesse inédite pour identifier des cibles et anticiper les mouvements adverses.
Un responsable du Pentagone a décrit le fonctionnement de Maven comme « magique », transformant une menace détectée en un processus de ciblage, et présentant au commandement un éventail d’options d’intervention. Cette capacité à réduire le temps nécessaire pour passer de la détection à l’engagement est cruciale dans un contexte de conflit contemporain.
La récente montée de l’IA générative a également permis une interaction en langage naturel avec le système, facilitant ainsi son utilisation par un plus grand nombre de militaires, au-delà des experts techniques. Cette avancée a été rendue possible grâce au modèle Claude d’Anthropic, même si cette entreprise a récemment été sanctionnée par le Pentagone pour avoir refusé d’utiliser ses outils dans des opérations d’armement autonome.
Les préoccupations éthiques entourant l’utilisation de l’IA dans les opérations militaires ne sont pas nouvelles. En 2018, Google, qui était alors le principal prestataire du projet, avait été confronté à une forte opposition interne. Plus de 3 000 employés avaient signé une lettre ouverte dénonçant le contrat avec le Pentagone, ce qui avait conduit l’entreprise à ne pas renouveler son engagement et à établir une charte éthique interdisant l’utilisation de l’IA pour des systèmes d’armement.
Malgré cette opposition, Google a récemment levé ses restrictions et s’est réengagé dans les contrats militaires. Actuellement, le Pentagone envisage de remplacer Claude par d’autres entreprises, notamment Google et OpenAI, rivaux d’Anthropic, dans le cadre de Project Maven. En 2024, Palantir a pris la place laissée vacante par Google, devenant le principal fournisseur du programme, renforçant ainsi son rôle stratégique dans le renseignement militaire.
Le PDG de Palantir, Alex Karp, a souligné que le monde est désormais divisé entre ceux qui possèdent cette technologie et ceux qui ne l’ont pas. Il a ajouté que maîtriser ces capacités pourrait rendre un adversaire obsolète. Dans le cadre de l’opération Epic Fury, les forces américaines ont démontré la rapidité d’exécution de Maven, frappant plus de 1 000 cibles en 24 heures.
La guerre en Iran met en lumière l’importance croissante de l’IA dans les opérations militaires, mais elle soulève également des questions éthiques pressantes sur l’automatisation des frappes. Le Pentagone et Palantir n’ont pas commenté les performances de Maven dans ce contexte, mais il est évident que l’IA joue un rôle déterminant dans l’évolution des stratégies militaires modernes.