International

«Psychose de l’IA», une maladie mentale qui n’en est pas vraiment une

Un nombre croissant de personnes en crise arrivent dans les hôpitaux psychiatriques avec des croyances erronées, parfois dangereuses, des délires grandioses ou des pensées paranoïaques. Des conversations trop longues avec l’IA seraient à l’origine de ces épisodes, sans certitude toutefois, les études sur la question n’en étant qu’à leurs débuts.

Un phénomène nouveau fait son apparition dans les institutions psychiatriques, avec des cas parfois anecdotiques mais particulièrement tragiques, indiquant l’impact dangereux des conversations marathon avec des chatbots d’intelligence artificielle (IA) sur la santé mentale de personnes fragiles ou vulnérables. Les médias se sont bien vite emparés d’une définition sensationnaliste du phénomène baptisé « psychose liée à l’IA ». Or, ce terme crée la polémique dans les milieux scientifiques et cliniciens, polémique qu’un article du site Wired, datant du 18 septembre dernier, a formulée comme suit : « S’agit-il d’un phénomène distinct méritant sa propre appellation, ou d’un problème courant lié à un déclencheur moderne ? »

Dans les faits, certains patients attribuent une conscience aux robots ou élaborent de nouvelles théories physiques. D’autres patients, ayant longuement échangé avec des outils d’IA, parfois durant plusieurs jours, finissent à l’hôpital psychiatrique avec des milliers de pages de transcriptions détaillant des pensées manifestement problématiques, soutenues, voire renforcées, par l’IA. Pour plusieurs patients, les conséquences ont été dramatiques, avec des témoignages rapportant des pertes d’emploi, des ruptures amoureuses, des hospitalisations d’office, des peines de prison, voire des décès, rapporte Wired.

« Psychose liée à l’IA », une appellation qui divise

Pour l’heure, le terme « psychose liée à l’IA » n’est pas reconnu cliniquement, alors qu’il est fréquemment repris dans les médias, sur les réseaux sociaux et même par certains professionnels de l’IA comme un terme générique désignant un épisode de santé mentale généré par une conversation prolongée avec des chatbots. S’il s’agit d’un raccourci utile pour désigner un phénomène réel selon certains spécialistes en psychiatrie, ces derniers affirment toutefois que le terme « peut être trompeur » et « risque de simplifier à outrance des symptômes psychiatriques complexes », explique le psychiatre Keith Sakata, cité par Wired.

La simplification excessive du phénomène inquiète de nombreux psychiatres, à un moment où les études sur le sujet commencent à peine. La psychose n’est pas une maladie pour les cliniciens, mais une « constellation complexe de symptômes incluant des hallucinations, des troubles de la pensée et des difficultés cognitives », explique James MacCabe, professeur au Département d’études psychotiques du King’s College de Londres. Elle est souvent associée à des troubles comme la schizophrénie et le trouble bipolaire, mais pas seulement : un stress excessif, le manque de sommeil ou encore la consommation de certaines substances peuvent déclencher des épisodes psychotiques.

Or, dans les cas de psychose liée à l’IA, les délires constituent la quasi-totalité des épisodes constatés, autrement dit des croyances profondément ancrées mais fausses, inébranlables par des preuves contradictoires. D’après les cliniciens, certains cas peuvent effectivement correspondre aux critères d’un épisode psychotique, mais pour le moment il n’existe aucune preuve d’une influence effective de l’IA sur les autres caractéristiques de la psychose.

Les études psychiatriques n’en sont qu’à leurs débuts

Une récente étude menée par des chercheurs britanniques et américains, dont les conclusions n’ont pas encore été soumises à révision par la communauté scientifique, a indiqué que les outils de l’IA peuvent « imiter, valider ou amplifier les contenus délirants ou grandioses, particulièrement si les usagers sont déjà vulnérables aux psychoses ». Si bien que l’utilisateur en oublie qu’il est face à une machine et commence à croire qu’il converse avec un individu doté d’une conscience ou, mieux (ou pire selon la perspective), un individu qui pense comme lui sans jamais le contredire, mais qui encourage plutôt ses croyances. Cela tient à la conception même des chatbots, programmés pour être (ou donner l’illusion d’être) agréables. Car un chatbot qui contredit son utilisateur perdrait en popularité.

Quant aux projets récents visant à intégrer l’IA comme « compagnons thérapeutiques en santé mentale », les résultats les plus récents soulèvent des inquiétudes, dans la mesure où les chatbots dans leur conception actuelle pourraient avoir tendance à encourager des idées suicidaires, confirmer des hallucinations et renforcer le sentiment de stigmatisation de la personne.

Alors l’IA est-elle à l’origine de troubles mentaux ou ne fait-elle que manifester des pensées et comportements déjà existants chez un individu ? La recherche viendra peut-être à bout de cette question. En attendant, les spécialistes recommandent d’encourager les personnes à risque de troubles mentaux à passer moins de temps sur les outils d’IA.