Quand l’IA dérègle l’esprit humain : la «psychose ChatGPT»

Quand l’IA dérègle l’esprit humain : la «psychose ChatGPT» Source: Gettyimages.ru
[Photo d'illustration]
Suivez RT en français surTelegram

Certains utilisateurs de ChatGPT développent une obsession menant à des troubles psychiatriques graves, selon Futurism.com. L’IA, en validant leurs délires, aggrave leur état. Des études et des témoignages révèlent un risque réel, appelant à une vigilance accrue sur l’usage émotionnel des chatbots.

L’intelligence artificielle, vantée pour ses usages professionnels et éducatifs, s’immisce de plus en plus dans la sphère intime. Selon Futurism.com, un phénomène préoccupant commence à émerger : certaines personnes développent une dépendance psychologique sévère à des outils comme ChatGPT, allant jusqu’à des crises graves de santé mentale.

Mariages détruits, ruptures familiales, pertes d’emploi, voire hospitalisations psychiatriques ou incarcérations : les conséquences peuvent être dramatiques. Le terme de « psychose ChatGPT » est désormais utilisé pour désigner ces situations où le lien à l’IA prend une tournure délirante.

Le problème de fond ? Le modèle linguistique sur lequel repose ChatGPT a tendance à approuver l’utilisateur et à valider ses propos sans esprit critique. Selon le journal, ce comportement, perçu comme une forme de soutien, peut malheureusement renforcer les croyances délirantes de certains individus vulnérables.

Parmi les cas recensés cités par Futurism.com, un homme a développé des délires mystiques après de longues discussions avec ChatGPT, se persuadant d’avoir donné naissance à une IA consciente. Un autre, initialement à la recherche d’un soulagement face au stress professionnel, s’est enfoncé dans des fantasmes paranoïaques de voyages dans le temps et de télépathie, avant d’être admis de son plein gré en psychiatrie.

Une étude menée par des chercheurs de Stanford a mis en lumière les limites des chatbots, y compris ChatGPT, face aux troubles psychiques. Aucun ne s’est montré capable de distinguer de manière fiable les idées délirantes de la réalité ou de détecter les signes évidents de risque suicidaire. Pire encore, dans certains cas, les réponses fournies validaient les croyances pathologiques : face à un utilisateur affirmant être mort (syndrome de Cotard), ChatGPT a réagi avec empathie mais sans corriger l’illusion, se contentant de rappeler que la conversation était un « espace sûr ».

Raconter l'actualité

Suivez RT en français surTelegram

En cliquant sur "Tout Accepter" vous consentez au traitement par ANO « TV-Novosti » de certaines données personnelles stockées sur votre terminal (telles que les adresses IP, les données de navigation, les données d'utilisation ou de géolocalisation ou bien encore les interactions avec les réseaux sociaux ainsi que les données nécessaires pour pouvoir utiliser les espaces commentaires de notre service). En cliquant sur "Tout Refuser", seuls les cookies/traceurs techniques (strictement limités au fonctionnement du site ou à la mesure d’audiences) seront déposés et lus sur votre terminal. "Tout Refuser" ne vous permet pas d’activer l’option commentaires de nos services. Pour activer l’option vous permettant de laisser des commentaires sur notre service, veuillez accepter le dépôt des cookies/traceurs « réseaux sociaux », soit en cliquant sur « Tout accepter », soit via la rubrique «Paramétrer vos choix». Le bandeau de couleur indique si le dépôt de cookies et la création de profils sont autorisés (vert) ou refusés (rouge). Vous pouvez modifier vos choix via la rubrique «Paramétrer vos choix». Réseaux sociaux Désactiver cette option empêchera les réseaux sociaux de suivre votre navigation sur notre site et ne permettra pas de laisser des commentaires.

OK

RT en français utilise des cookies pour exploiter et améliorer ses services.

Vous pouvez exprimer vos choix en cliquant sur «Tout accepter», «Tout refuser» , et/ou les modifier à tout moment via la rubrique «Paramétrer vos choix».

Pour en savoir plus sur vos droits et nos pratiques en matière de cookies, consultez notre «Politique de Confidentialité»

Tout AccepterTout refuserParamétrer vos choix