«Soit l'IA est aussi performante que ce qui est avancé et l'armée israélienne n'a cure des dommages collatéraux, soit l'IA n'est pas aussi performante qu'on le dit», juge Toby Walsh, professeur d'Intelligence artificielle à l'Université New South Wales, en Australie, interrogé par l'AFP, face à l’écart entre les combattants du Hamas éliminés et les victimes civiles.
Le ministre israélien de la Défense Yoav Gallant affirmait il y a un mois que Tsahal avait «éliminé 10 000 terroristes». Au 3 mars, plus de 30 000 personnes sont mortes des frappes de représailles de Tsahal dans la bande de Gaza.
L'armée israélienne revendique avoir mené la « première guerre par l'IA» durant onze jours en mai 2021 à Gaza. Le chef d'état-major à l'époque, Aviv Kochavi, déclarait l'an dernier au site d'information israélien Ynet que l'IA avait permis de générer «100 nouvelles cibles chaque jour», contre «50» par an dans la bande de Gaza «dans le passé».
D'après un blog du site de l'armée, plus de 12 000 cibles ont ensuite été identifiées en 27 jours, grâce à la technologie d'IA nommée Gospel. D'après un responsable cité anonymement, cet outil a sélectionné des cibles «pour des attaques précises des infrastructures associées au Hamas, infligeant des dommages importants à l'ennemi, tout en causant à ceux non impliqués le moins de tort possible».
Mais un ancien officier des renseignements israéliens s'exprimant sous couvert de l'anonymat soutenait en novembre au journal d'investigation israélo-palestinien indépendant «+972 Magazine» que cette technologie était en train de se transformer en «une fabrique d'assassinats de masse».
Citant une source dans les renseignements, le journal rapporte que Gospel avalait quantité de données, plus rapidement que «des dizaines de milliers d'agents du renseignement», et permettait d'identifier en temps réel des sites pouvant être des lieux de résidence de combattants supposés. Le type de données et les critères de ciblage n'étaient pas détaillés.
Plusieurs experts indiquent à l'AFP que l'armée peut nourrir l'outil avec des images venant de drones, des messages sur les réseaux sociaux, des informations recueillies sur le terrain par des espions, des localisations téléphoniques, notamment.
Une fois une cible sélectionnée, la technologie peut utiliser les sources officielles concernant la population pour estimer la probabilité de dommages aux civils.
«Données douteuses»
Mais pour Lucy Suchman, professeur d'anthropologie des sciences et technologies à l'université de Lancaster, au Royaume-Uni, l'idée que davantage de données produirait un meilleur ciblage est fausse.
Les algorithmes sont entraînés pour trouver des motifs répétés dans les données. Chaque motif précédemment identifié comme cible peut donc générer une nouvelle cible, explique-t-elle. Les «hypothèses discutables» dans l'interprétation des données risquent ainsi d'être amplifiées. «En d'autres termes, plus il y a de données douteuses, plus le système est mauvais», d'après elle.
Les Israéliens ne sont pas les premiers à déployer des méthodes de ciblage automatisées sur les terrains de guerre. Déjà pendant la guerre du Golfe en 1990-1991, l'armée américaine avait eu recours aux algorithmes pour améliorer ses frappes. Elle a aussi travaillé avec les outils d'analyse de données de la société Palantir à l'occasion de la guerre en Afghanistan lancée après les attentats du 11 septembre 2001. En 1999 au Kosovo, durant la campagne de bombardement des cibles militaires serbes, l'Otan a commencé à utiliser les algorithmes pour évaluer le nombre de victimes civiles potentielles.
Même si l'armée israélienne est «l'une des plus pointues technologiquement», «les chances qu'elle utilise l'IA avec un tel degré de sophistication et d'autonomie [pour atteindre l’efficacité voulue] sont très faibles», estimait l'analyste Noah Sylvia pour le centre de réflexion britannique sur la défense Rusi, le mois dernier. Et d'ajouter que les humains devraient encore recouper tout résultat.