Tout droit sortie d’un film dystopique, l’intelligence artificielle (IA) occupe aujourd’hui une place prépondérante dans nos sociétés. En plus d’avoir changé nos vies, cette nouvelle technologie a modifié le paysage des conflits armés. Le conflit russo-ukrainien, ayant commencé en 2014, a été l’un des premiers théâtres d’émergence de cette nouvelle technique de guerre. Ayant rapidement compris que la guerre pouvait se gagner par le développement de cette nouvelle technologie, les deux pays se sont lancés dans ce que l’on appelle une « course à l’IA ». Investir de lourdes sommes afin de créer de nouveaux moyens de surveillance, de nouvelles armes automatiques et de nouveaux réseaux de diffusion est devenue une obsession pour ces pays et nous laisse songeurs quant à la limite de ces innovations. Cet article a pour but de montrer comment l’IA utilisée dans le conflit russo-ukrainien ouvre la page à une nouvelle ère de guerre.
L’IA et les armes autonomes
Le double tranchant dans cette guerre a été l’utilisation d’armes autonomes. Ces armes, développées par les deux pays, sont capables d’identifier leur cible et même de les neutraliser. Aujourd’hui, ces machines patrouillent les frontières, repèrent les ennemis et règlent les problèmes sans interventions humaines. Ainsi, ces drones apparaissent comme un outil efficace pour patrouiller les frontières de manière plus efficace en couvrant plus de territoire et comme la solution pour éviter la mort de soldat à la frontière . Dans le conflit russo-ukrainien, ces drones sont aussi utilisés comme drones kamikazes. C’est en effet le cas des drones Shahed-136 utilisés par les soldats russes dans l’unique but de les écraser contre des bâtiments et de causer le plus de dégâts possible. Cependant, cette utilisation de l’IA est l’une des plus controversées et laisse place à de nombreuses questions éthiques. Quelle légitimité ont les mathématiques et l’informatique pour prendre la décision de tuer quelqu’un ? Laisser le choix de tuer quelqu’un à un robot n’a-t-il pas pour réel but d’enlever toute responsabilité aux humains ? Verrons-nous un jour un drone sur le banc d’un tribunal jugé pour crime de guerre ? L’ancien rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, Philip Alston, a longtemps étudié ce sujet qui sera, selon lui, un problème majeur dans le futur. En effet, selon le droit international humanitaire, toute arme, aviation comprise, doit pouvoir faire une distinction précise entre civils et militaires et doit avoir pour objectif des dégâts limités et un tir ciblé. Selon lui, “leur capacité de tuer grandissante, associée au peu de contrôle humain” ne permet pas le respect de ces règles et objectifs. L’existence de ces drones inquiète de nombreuses personnes et organisations. L’ONU envisage d’ouvrir un bureau cet été à Genève afin d’étudier les victimes civiles des attaques de drones et de prendre des décisions cruciales concernant le futur de ces armes dans la guerre.
L’IA et la surveillance militaire
L’une des avancées technologiques les plus importantes dans cette guerre est le développement de drones de surveillance. Basés sur l’intelligence artificielle, ces drones permettent une collecte et une analyse de données presque infaillibles. Entre autres, ils ouvrent la voie à une meilleure sécurisation des terrains et des soldats. Afin de contrer les champs de mines installées par la Russie, l’Ukraine utilise une nouvelle technique de drone à caméra infrarouge permettant de repérer ces obstacles explosifs. Selon CNN, après avoir repéré les mines, les drones ont la capacité de lancer une charge d’explosif afin de les désarmer. Cependant, les avancées de l’IA et de la surveillance ne s’arrêtent pas là : le code et l’IA peuvent se transformer en « boule de cristal » et prédire l’avenir. Ressemblant à la technologie utilisée dans le film de Steven Spielberg, Minority Report, les Ukrainiens ont mis en place un système « Delta ». Combinant les données collectées par les drones, les informations mises en ligne sur les réseaux sociaux, et un algorithme considéré sans faille, Delta permettrait de prédire toute attaque russe. Selon les membres de cette équipe, ce logiciel sera le déterminant de ce conflit et ouvre la voie à une nouvelle guerre qui «transformera les armes en ordinateurs et les balles en informations ». Cependant, comme nous l’avons vu dans le blockbuster de Spielberg, ces technologies ne sont pas infaillibles, car elles oublient de prendre en compte l’erreur ou encore l’irrationalité humaine. Cette irrationalité des hommes en contexte de guerre est expliquée de manière plus approfondie par le professeur Jack S Levy. En effet, pour lui, chaque humain a des faiblesses cognitives qui le poussent à mener des actions qui paraissent illogiques aux autres humains. Ainsi, une machine basée sur des certitudes ne peut prédire quelque chose d’irrationnel. De plus, ces systèmes peuvent, comme tout système informatique, être piratés et engendrer la fuite d’information d’état ultra-secret. Cela s’est produit en décembre 2022 et a compromis tous les courriels du ministère de la défense ukrainien et a créé, par conséquent, une véritable crise en temps de guerre.
L’IA et la guerre médiatique
La guerre médiatique, autrement appelée guerre de l’information, a toujours existé. Cependant, le rôle actif de l’IA dans celle-ci en a modifié les modalités, les champs d’action et les limites. Lors du conflit russo-ukrainien, les deux pays ont utilisé l’IA afin de créer des fake news et de propager de fausses informations. Parmi ces techniques, nous pouvons notamment retrouver « le deep fake », qui consiste à créer du faux contenu en superposant des voix et des images. Grâce à cette technique, des vidéos très réalistes peuvent être créées et ainsi tromper la population. Très récemment nous avons vu une fausse vidéo du président Poutine annonçant le retrait des troupes dans trois régions occupées. Les médias russes ne revendiquent pas cette action et accusent des pirates informatiques ukrainiens de vouloir semer le trouble. Ce n’est pas la première fois que ceci est observé, puisque la même chose est arrivée au président Zelenski en mars 2022. Cette nouvelle variable rend de plus en plus difficile pour les citoyens et les internationaux de distinguer le vrai du faux et participe à la désinformation massive. Soucieux de combattre cela, de nombreux chercheurs se sont penchés sur la question d’un vérificateur de photos ou vidéos. Adobe a créé le Content Authenticity Initiative ayant pour but de créer un outil de certification des contenus et permettant de protéger les droits d’auteurs. Facebook a aussi décidé de se de lutter contre cette désinformation en créant le « deepfake Detection challenge ». L’objectif de ceci est de générer le plus de deepfake possible afin d’entraîner les algorithmes de Facebook à faire la différence. Malgré la multiplication d’initiatives pour lutter contre cette utilisation de l’IA, tous les scientifiques se rejoignent au même endroit : l’éducation et l’esprit critique des citoyens sont clé.
Après avoir vu de plus près toutes ces nouvelles techniques, et avoir vu différents avis, nous pouvons facilement imaginer ce à quoi pourraient ressembler les guerres dans le futur. Des drones et camions autonomes se battant entre eux, des tribunaux technologiques jugeant des machines, des logiciels prédisant le futur et des fausses vidéos créées par internet. Cela est-il réellement le futur de la guerre ou serait-il le script de l’une des nouvelles dystopies de Spielberg ?
Édité par Jeanne Arnould
Margaux is a second-year student at McGill University. Originally from Marseille, she is double majoring in political science and economics and minoring in Russian studies.