· Cité du Vatican ·

Intelligence artificielle et conflits armés

L’IA qui tue

 L’IA qui tue   FRA-025
20 juin 2024

La participation du Pape François à la session du g7 sur l'intelligence artificielle (ia) a suscité la curiosité. Le danger que représentent certaines applications de l'intelligence artificielle, qui souvent restent au second plan, n'échappe évidemment pas au Souverain Pontife.

En effet, il n'y a pas seulement un problème lié aux caractéristiques intrinsèques de l'ia et aux questions que son développement futur ouvre sur les formes de communication et de relations. Il y a également le problème lié à ses champs d'applications, qui — comme c'est le cas pour de nombreuses innovations scientifiques et technologiques qui l'ont précédée — semblent donner la priorité au domaine militaire.

Ainsi, ce qui se passe au cours de la guerre sanglante qui se déroule actuellement à Gaza constitue un avertissement dramatique. En effet, selon deux médias importants, le quotidien britannique The Guardian et les journaux en ligne +972 magazine et Local call, édités à Tel-Aviv, les soldats israéliens combattant à Gaza après le 7 octobre seraient guidés, si ce n'est «commandés», par deux logiciels d'intelligence artificielle, auxquels il faudrait attribuer, entre autres, le nombre élevé de victimes civiles dues aux bombardements israéliens sur la Bande de Gaza.

Selon les trois médias, qui ont recueilli les informations directement auprès d'agents de l'intelligence israélienne, Tsahal aurait en effet utilisé, en particulier pendant les premiers mois du conflit, un logiciel d'ia, appelé Lavender, contenant une base de données d'environ 37.000 cibles potentielles, identifiées sur la base d'un lien supposé avec des terroristes du Hamas. Les structures de commandement des troupes israéliennes auraient ainsi privilégié les froides indications de l'ia plutôt que les observations et les évaluations des soldats sur le terrain pour identifier les objectifs à frapper. En seulement 20 secondes, le programme était en grade de reconnaître la cible déjà présente dans la banque de données, de l'identifier également à travers la reconnaissance faciale et d'en ordonner l'exécution en fournissant les coordonnées. Il importait peu que des civils innocents se trouvaient dans le même bâtiment. Selon les sources israéliennes recueillies par les deux magazines israéliens, et reprises par le quotidien londonien, le nombre élevé de pertes humaines, c'est-à-dire de civils morts dans les bombardements, aurait été causé précisément par l'utilisation inconsidérée de l'ia.

L'intervention humaine se serait limitée à une simple validation en fin de procédure. Au contraire, il semblerait que le logiciel était capable de calculer à l'avance le nombre approximatif de civils qui auraient été touchés au cours de chaque opération, et que, dans les premières semaines du conflit, la limite préalablement fixée et autorisée en pertes humaines était de l'ordre de 15/20 victimes pour chaque terroriste touché. Un nombre flexible selon les contextes: dans certains cas, il était de 5 victimes mais dans les cas concernant les dirigeants de la branche militaire du Hamas ou du Jihad islamique, il pouvait atteindre 100 victimes. Les dirigeants militaires israéliens n'ont pas démenti les révélations du Guardian concernant l'utilisation de l'intelligence artificielle dans le conflit, déclarant cependant n'avoir jamais agi en dehors des règles internationales sur le principe de proportionnalité des dommages collatéraux, et que Lavender est principalement une base de données qui recoupe différentes sources d'intelligence pour obtenir des informations actualisées sur les agents des groupes terroristes, et non obtenir une liste de personnes à éliminer physiquement. Le logiciel Lavender — toujours selon les témoignages anonymes d'agents de l'intelligence israélienne — aurait fonctionné avec un autre système d'ia, dramatiquement appelé The Gospel. Alors que le premier fonctionne sur une base de données de cibles humaines, le deuxième est en revanche dédié aux cibles constituées de bâtiments et d'infrastructures. Evidemment, la structure de la base de données Lavender dépend de la contribution humaine relative à la notion de «terroriste», c'est-à-dire les paramètres qui la définissent. Plus la définition fournie aux machines est précise, plus la liste de cibles donnée par Lavender est longue et affinée. La crainte porte sur le fait que, après le carnage perpétré par Hamas le 7 octobre, un esprit de vengeance ait prévalu et que les conditions pour figurer sur les listes aient été «élargies». Par conséquent, l'augmentation du nombre de cibles aurait requis une accélération temporaire des procédures que seule l'ia pouvait permettre.

L'autre conflit majeur de ces temps difficiles a vu l'apparition de l'intelligence artificielle sur les champs de bataille. Les armées ukrainiennes ont commencé à utiliser des drones pilotés par l'ia. En général, le pilote oriente le drone vers la cible à distance, en ajustant la trajectoire si nécessaire et en prenant en compte les risques d'effets collatéraux. Une nouvelle génération de drones, pour lesquels il n'y a plus besoin de pilote mais d'un opérateur qui indique la cible par géolocalisation et appuie sur une touche, est en train de faire son apparition sur le marché riche et prometteur de la robotique militaire. Au moins 10 entreprises ukrainiennes, et d'autres occidentales, se servent de la guerre russo-ukrainienne comme terrain d'essai de leur inventions meurtrières. L'intelligence artificielle de ces drones prévoit la trajectoire en prenant aussi en compte la morphologie des terrains, coordonne le vol de tout l'essaim et confirme les dommages causés lorsque la mission est accomplie. Mais surtout, un seul opérateur peut surveiller le vol de plusieurs drones, épargnant ainsi du temps et des moyens humains. Pour les Ukrainiens, l'utilisation de l'intelligence artificielle devient donc un outil décisif pour compenser le déséquilibre numérique des forces en présence. Les Russes, quant à eux, ont mis au point une gamme de -brouilleurs radio tout le long de la ligne de front qui sert à isoler les drones de leurs pilotes à distance. Les Russes se sont aussi servi de l'intelligence artificielle pour lancer l'offensive, mais ils opèrent surtout dans le piratage informatique pour répondre automatiquement aux incursions ennemies et par conséquent identifier les potentielles vulnérabilités dans un réseau. Les observateurs occidentaux estiment que les avancées russes concernant l'utilisation militaire de l'ia et le développement de programmes de tech-nologies émergentes et de technologies de rupture (te/tr) peuvent être ralentis par l'application de sanctions. Cependant, Vladimir Poutine (qui a souligné à plusieurs reprises le caractère stratégique de l'ia militaire en comparant son efficacité à ce que représentait le nucléaire dans le passé) pourrait toujours parier sur le niveau plus avancé atteint dans le domaine par les Chinois.

Le ministère de la défense ukrainien a crée une unité spécialisée appelée Bravel, qui soutient et facilite le travail de dizaines de start-ups créées pour déployer l'ia dans le domaine militaire. Des dizaines de forces armées occidentales suivent de près (révèle l'important magazine en ligne Politico.eu dans une enquête longue et détaillée sur le phénomène) les développements de systèmes d'armes autonomes en cours d'expérimentation en Ukraine. Une fois encore, comme à Gaza, le risque principal, selon les analystes, est que la priorité donnée à la rapidité d'exécution finisse par diminuer la capacité à contrôler ces armes autonomes, ouvrant ainsi la voie à des tueries de masse. Ainsi, contrairement au cliché qui voit dans le conflit russo-ukrainien un retour à la guerre traditionnelle, l'est de l'Ukraine est en réalité un laboratoire d'expérimentation sur la manière dont les guerres seront menées dans un avenir proche. Il était donc important que lors du g7, l'on commence à en discuter et l’on réfléchisse à une convention internationale qui — comme cela s'est produit dans le passé avec les arsenaux nucléaires — imposerait des limites à l'application de l'intelligence artificielle dans le domaine militaire. Même s'il semble difficile aujourd'hui de réglementer un phénomène qui n'en est qu'à ses débuts, alors que la course est lancée pour savoir qui sera le premier à produire les armes les plus meurtrières. (roberto cetera)

Roberto Cetera