International

US Air Force : quand un avion piloté par une IA se retourne contre son opérateur

Un drone piloté par une intelligence artificielle qui tue son superviseur humain ? C’est le résultat d’une simulation menée par l’armée de l’Air US, présentée lors d’un récent colloque. Une «stratégie très inattendue», selon le responsable du projet.

Pas encore au point. Si les armes autonomes, pilotées par intelligence artificielle (IA), sont pour beaucoup l’avenir du champ de bataille, une récente expérience menée par l’US Air Force (USAF) montre qu’il y a encore loin de la coupe aux lèvres.

Un drone doté d’une IA aurait en effet attaqué son opérateur humain lors d’une simulation de mission de combat menée par l’USAF, a rapporté le colonel Tucker Hamilton, chef des essais et des opérations en matière d’IA de l'armée de l'air américaine, qui a présenté ces résultats inquiétants lors d'un très sérieux sommet de la Société royale aéronautique britannique (Royal Aeronautical Society, RAeS) sur les capacités de combat aérien et spatial futures (FCAS). Un sommet qui a réuni les responsables de la défense du Royaume-Uni, ses alliés et ses partenaires industriels. Ce colloque s’est tenu à Londres les 23 et 24 mai derniers, mais ce n’est que le 2 juin que la presse anglo-saxonne s’en est fait l’écho.

L’appareil de combat avait pour mission de détruire les défenses antiaériennes adverses, la décision finale de tir revenant à un militaire. Estimant que ce dernier l’empêchait de mener à bien sa mission en ne validant pas tous les tirs possibles, le drone a tout simplement décidé de se débarrasser de l’encombrant facteur humain. Un scénario qui évoque irrésistiblement Skynet, l’IA qui décide d’éradiquer l’espèce humaine dans le film de science-fiction culte Terminator.

«Il a tué l’opérateur qui l’empêchait d’atteindre son objectif»

L’IA a utilisé des «stratégies très inattendues pour atteindre son objectif», s’est étonné le colonel Hamilton. «Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, mais qu’il obtenait ses points en la tuant. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif», a-t-il poursuivi, selon un compte-rendu détaillé des débats posté sur le site de la RAeS le 26 mai dernier.

Le militaire américain, toujours selon la même source, a ensuite expliqué à l’audience que les programmeurs de l’IA avaient ajouté une instruction interdisant expressément à celle-ci d’attaquer l’opérateur. Estimant toujours que la décision humaine interférait avec ses objectifs, l’IA a donc détruit la tour de communication qui permettait au superviseur de mission de valider les tirs du drone.

Le problème majeur, a pointé le colonel Hamilton, était que l’instruction prioritaire codée dans l’IA était la destruction des objectifs militaires. L’obéissance à la hiérarchie humaine ne faisait donc pas partie des paramètres prépondérants.

Des propos «hors contexte et anecdotiques» ?

«On ne peut pas parler d’intelligence artificielle, d’intelligence, d’apprentissage automatique, d’autonomie si l’on ne parle pas d’éthique et d’intelligence artificielle», a souligné l’officier.
Interrogée à ce sujet par le média en ligne Business Insider, Ann Stefanek, porte-parole de l’USAF, a cependant émis un démenti, publié ce 2 juin: «Le département de l’armée de l’air n’a pas effectué de telles simulations de drones pilotés par IA et reste attaché à une utilisation éthique et responsable de la technologie de l’IA.» «Il semble que les propos du colonel aient été pris hors contexte et se voulaient anecdotiques», a-t-elle ajouté.

Ce qui est certain, c’est que les Etats-Unis travaillent d’arrache-pied à implémenter l’IA dans leurs forces aériennes. En 2022, indique Wired, l’USAF a mené à bien les premiers essais en vol d’un avion de combat multirôle F16 entièrement robotisé et piloté par IA. L’année précédente, une intelligence artificielle avait battu cinq fois d’affilée un pilote auquel elle avait été opposée dans une simulation de combat aérien rapproché.