Dans un communiqué publié ce 31 mars, l'Autorité nationale italienne de protection des données personnelles (l'équivalent de la Cnil en France) a annoncé sa décision «avec effet immédiat» de bloquer le robot conversationnel ChatGPT, ce qui aura pour conséquence «la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI».
ChatGPT est apparu publiquement en novembre 2022 et a rapidement été pris d'assaut par des utilisateurs impressionnés notamment par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets et même à réussir des examens.
Ce logiciel d'intelligence artificielle peut également être utilisé pour écrire du code informatique, sans avoir de connaissances techniques. Dans son communiqué, l'Autorité italienne souligne que ChatGPT «a subi le 20 mars une perte de données concernant les conversations des utilisateurs et les informations relatives au payement des abonnés au service payant».
L'Italie donne un ultimatum de 20 jours à l'entreprise américaine OpenAI
L'Autorité reproche aussi à ChatGPT «l'absence d'une note d'information aux utilisateurs dont les données sont récoltées par OpenAI, mais surtout l'absence d'une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d'"entraîner" les algorithmes faisant fonctionner la plateforme».
En outre, alors que le robot est destiné aux personnes de plus de 13 ans, «l'Autorité met l'accent sur le fait que l'absence de tout filtre pour vérifier l'âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement».
L'Autorité demande à OpenAI de «communiquer d'ici 20 jours les mesures entreprises» pour remédier à cette situation, «sous peine d'une sanction allant jusqu'à 20 millions d'euros ou jusqu'à 4% du chiffre d'affaires mondial annuel».
Cette annonce survient alors que l'agence de police européenne Europol a averti en début de semaine que des criminels étaient prêts à tirer parti de l'intelligence artificielle, comme le robot conversationnel ChatGPT, pour commettre des fraudes et d'autres cybercrimes.
Du phishing à la désinformation et aux logiciels malveillants, les capacités en évolution rapide des robots de conversation (chatbots) sont susceptibles d'être rapidement exploitées par des personnes mal intentionnées, a estimé Europol dans un rapport.
Elon Musk et des centaines d'experts mondiaux ont signé le 29 mars un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d'OpenAI lancé mi-mars, évoquant «des risques majeurs pour l'humanité».