«Nous pensons que Google ne devrait pas participer au commerce de la guerre» : environ 4 000 employés du géant de l'internet ont signé une pétition pour qu'il renonce à utiliser ses outils d'intelligence artificielle pour aider le Pentagone à rendre ses drones plus efficaces, notamment dans l'identification des cibles.
«En conséquence, nous demandons à ce que le projet Maven soit annulé et que Google rédige, rende publique et mette en œuvre une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre», poursuivent les signataires. Selon le site Gizmodo, une douzaine d'employés ont dors-et-déjà remis leur démission, citant des raisons éthiques.
Le «Projet Maven» développé par Google vise à utiliser l'intelligence artificielle pour aider les drones de l'armée à distinguer les humains des objets. Bien que Google ait officiellement indiqué que ses travaux n'avaient pas d'objectifs offensifs, certains documents publiés inquiètent l'Electronic Frontier Foundation (EFF), qui défend les droits sur internet, ainsi que le Comité international pour le contrôle des armes-robots (ICRAC).
«Nous ne sommes pas loin d'autoriser des drones autonomes à tuer automatiquement»
Selon l'EFF, ces outils conduiront dans certains cas à des frappes de missiles sur les cibles repérées par les drones, ce qui constitue un «problème éthique énorme», et ce même si la décision finale de tirer est prise par des humains.
Pour l'ICRAC, cela ouvre d'ailleurs la voie à une suppression totale de l'intervention humaine. «Si les chefs militaires voient que les algorithmes de reconnaissance d'objets sont fiables, il sera tentant de limiter voire de supprimer le contrôle humain sur ces systèmes», craint dans une lettre ouverte l'organisation qui lutte contre les «robots-tueurs» et les armes autonomes. «Nous ne sommes donc pas loin d'autoriser des drones autonomes à tuer automatiquement», s'alarme-t-elle encore.
L'ONU a lancé en avril une nouvelle série de discussions officielles sur les armes autonomes, pour tenter notamment de les définir précisément. Selon des experts cités par l'AFP, des systèmes d'armement automatisés avec la capacité d'identifier et d'éliminer des cibles sans qu'une action humaine soit nécessaire devraient prochainement être opérationnels sur les champs de bataille.
Lire aussi : Les robots de combat russes ne se retourneront pas contre l’humanité