Le 13 avril 2023, une étape significative a été franchie dans le conflit en Ukraine. Pour la première fois, une position russe a été conquise sans la présence d’un seul soldat sur le terrain, comme l’a affirmé le président ukrainien Volodymyr Zelensky. Cette opération a été rendue possible grâce à l’utilisation de drones et de robots terrestres, permettant aux forces ukrainiennes de réaliser l’attaque sans pertes humaines. Ce fait marquant soulève des questions sur l’évolution des conflits modernes et l’utilisation croissante de technologies militaires autonomes.
EN BREF
- Pour la première fois, une position russe a été prise en Ukraine sans soldats sur le terrain.
- Les drones et robots militaires deviennent des outils clés pour les opérations militaires.
- Des questions éthiques émergent sur la responsabilité des machines en guerre.
La transformation des méthodes de guerre est déjà frappante. Selon les déclarations de Zelensky, quatre frappes ukrainiennes sur cinq reposent actuellement sur des drones de combat. Début 2026, l’industrie ukrainienne a annoncé une capacité de production de 8 millions de drones par an, illustrant la montée en puissance des technologies autonomes. En parallèle, la Russie a également intensifié ses opérations, enregistrant un record de 6 583 drones lancés sur l’Ukraine en un seul mois d’avril.
Les partisans de ces technologies avancent qu’elles contribuent à réduire le nombre de victimes collatérales grâce à leur précision. Des drones et robots, souvent conçus comme des véhicules de reconnaissance ou d’évacuation, jouent un rôle crucial dans des missions telles que le sauvetage de blessés ou le déminage, évitant ainsi d’exposer des soldats à des situations à risque.
À titre d’exemple, l’armée ukrainienne a déployé un robot terrestre pour secourir une femme âgée blessée lors de bombardements. Emmanuel Goffi, professeur d’éthique appliquée à l’IA à l’Isep, constate : « Le fait qu’il y ait moins de victimes grâce aux armes autonomes, c’est vrai dans une première phase de conflit. Toutefois, sur la durée, la situation pourrait se compliquer, entraînant des dégâts économiques et psychologiques plus importants. »
Cependant, cette évolution technologique soulève également des questions éthiques. Raja Chatila, professeur émérite à Sorbonne Université, souligne que la responsabilité devient floue lorsque des machines prennent des décisions autonomes. « Quand un être humain désigne une cible, la responsabilité est claire. Mais dès qu’une machine intervient, qui est responsable ? Est-ce le chef d’État qui a autorisé la technologie, le concepteur ou l’armée ? »
Goffi nuance cette perspective en affirmant que « déterminer la responsabilité a priori ne sert à rien. La responsabilité doit être évaluée a posteriori : qui a pris quelles décisions et était bien informé ? » Il met également en garde contre un risque politique majeur : lorsque les pertes humaines diminuent, les gouvernements peuvent agir sans rendre de comptes à leurs citoyens. Cela pourrait conduire à des guerres silencieuses, sans l’opinion publique pour influencer les décisions.
Actuellement, aucun traité international ne régule l’usage des armes létales autonomes, et bien qu’aucun État ne revendique leur utilisation, la frontière entre contrôle humain et autonomisation devient de plus en plus floue. Dans certains cas, les frappes aériennes bénéficient d’un guidage autonome en raison de systèmes de brouillage. De plus, l’intelligence artificielle s’intègre dans les processus décisionnels militaires. À Gaza, par exemple, le système « Lavender » de l’armée israélienne évalue la probabilité qu’un individu soit lié à un groupe armé, proposant ensuite des cibles à éliminer.
En revanche, l’idée d’une guerre entre armées de robots, à la manière de la science-fiction, est discutable. Chatila affirme qu’une guerre robot contre robot nécessite toujours des objectifs définis et des interactions humaines au terme du conflit. De plus, lorsque des populations sont ciblées par des algorithmes, cela représente une humiliation et une forme de guerre psychologique. « Ce n’est pas une bonne façon de préparer la paix. Cela nourrit un esprit de revanche », conclut-il.
En somme, la guerre sans humains semble se transformer en une guerre contre des humains, mettant en lumière les défis éthiques et politiques que pose l’essor des technologies militaires autonomes.