Un algorithme mis au point aux Etats-Unis pour détecter les gens aux tendances suicidaires

Un algorithme mis au point aux Etats-Unis pour détecter les gens aux tendances suicidaires© Carnegie Mellon University
Etude de Marcel Adam Just: à gauche kl'activité cérébrale d'une personne non suicidaire, à droite l'activité cérébrale d'une personne suicidaire.
Suivez RT en français surTelegram

Des chercheurs américains ont mis au point un algorithme qui, à partir d’IRM du cerveau, est capable de déterminer si une personne a des idées suicidaires ou non. Une avancée pour la psychiatrie ?

Plus besoin de psy ? Des chercheurs du département de psychologie de l’université Carnegie Mellon à Pittsburgh (Etats-Unis) ont mis au point un algorithme capable d’identifier, dans 90% des cas, les personnes ayant des idées suicidaires – et même ceux ayant déjà fait une tentative. L’étude, menée par Marcel Adam Just, sur les «représentations neuronales du suicide et des émotions» identifiées chez des «jeunes suicidaires», a été publiée le 30 octobre dans la revue Nature Human Behavior.

La réaction du cerveau à des mots négatifs et positifs  

Leur étude repose sur l’analyse d’imagerie par résonance magnétique (IRM) après avoir projeté des images de mots évoquant des idées positives, négatives voire funestes. Quand l’activité cérébrale augmente, le sang oxygéné afflue dans certaines parties du cerveau, qui apparaissent à ce moment de manière différente sur l'IRM, comme on peut le voir sur l'image de ce tweet.

Un groupe de 17 personnes suicidaires et un groupe de 17 personnes qui ne le sont pas (groupe contrôle) ont été placés dans un appareil IRM. Ils ont alors été confrontés à 30 mots au contenu positif ou négatif tels que «insouciance, problème, vitalité, mort, cruauté, le bien»... Puis, les chercheurs n’ont gardé que les six mots qui causaient le plus d’effets et ont observé la réaction de cinq zones cérébrales lorsqu'ils étaient projetés.

Après analyse par l’algorithme, 15 des 17 personnes ont été correctement identifiées comme étant les suicidaires et 16 sur 17 ont été bien repérées comme faisant partie du du groupe contrôle. Quant aux patients suicidaires, l’analyse a été reproduite en souhaitant discriminer ceux qui avaient déjà commis une tentative de suicide et ceux qui n’étaient jamais passés à l’acte. Une fois de plus, l'algorithme a quasiment eu tout bon : 16 sur 17 ont été placés dans le bon groupe (94% de précision).

Comment cela a été rendu possible ? Les chercheurs, dans une précédente étude, avaient évalué les signatures cérébrales liées à des émotions spécifiques. Sur les IRM, ils avaient déjà repéré les motifs neuro-biologiques associés aux mots tels que «mort, problème, insouciance» dans un groupe contrôle, un groupes de suicidaires, et un groupe de personnes ayant déjà fait une tentative. Ils avaient observé que les mots à connotation négative produisaient davantage de tristesse et de honte mais moins de colère, visibles dans des zones précises du cerveau, dans le groupe suicidaire que dans le groupe contrôle.

 Qu'est ce que cette invention va changer ?

Jusqu’ici, avec l’IRM, les chercheurs s’étaient limités à l’étude de certaines zones du cerveau. Et lorsque les phénomènes étaient observés à l’échelle du cerveau tout entier, comme par exemple dans le cas de pensées suicidaires mobilisant toutes ses zones de manière diffuse, les méthodes d’analyse n’étaient pas encore au point. Or grâce à l’intelligence artificielle et l’algorithme mis au point par cette équipe, les données observables sont désormais analysables de manière beaucoup plus pointue et pertinente.

Et quid des applications dans le domaine de la santé ? L’algorithme pourrait aider les psychiatres à vérifier leur diagnostic. Comme le stipule l’étude de Marcel Adam Just : «L'évaluation du risque suicidaire pourrait être complétée par une mesure basée sur l’étude biologique qui repère les altérations des représentations neuronales des émotions rapportées à la mort et la vie des personnes qui sont en proie à des ruminations suicidaires.»

Cette étude soulève aussi de nombreux problèmes éthiques : ceux de la validité du résultat, qui n’atteint pas 100%, mais aussi des applications possibles dans des domaines qui peuvent porter tort à une personne : tests des assurances pour obtenir un prêt, garde d'enfants, mise sous tutelle, recrutement, etc…

Lire aussi : Stephen Hawking : l’intelligence artificielle doit être soumise à une éthique

Raconter l'actualité

Suivez RT en français surTelegram

En cliquant sur "Tout Accepter" vous consentez au traitement par ANO « TV-Novosti » de certaines données personnelles stockées sur votre terminal (telles que les adresses IP, les données de navigation, les données d'utilisation ou de géolocalisation ou bien encore les interactions avec les réseaux sociaux ainsi que les données nécessaires pour pouvoir utiliser les espaces commentaires de notre service). En cliquant sur "Tout Refuser", seuls les cookies/traceurs techniques (strictement limités au fonctionnement du site ou à la mesure d’audiences) seront déposés et lus sur votre terminal. "Tout Refuser" ne vous permet pas d’activer l’option commentaires de nos services. Pour activer l’option vous permettant de laisser des commentaires sur notre service, veuillez accepter le dépôt des cookies/traceurs « réseaux sociaux », soit en cliquant sur « Tout accepter », soit via la rubrique «Paramétrer vos choix». Le bandeau de couleur indique si le dépôt de cookies et la création de profils sont autorisés (vert) ou refusés (rouge). Vous pouvez modifier vos choix via la rubrique «Paramétrer vos choix». Réseaux sociaux Désactiver cette option empêchera les réseaux sociaux de suivre votre navigation sur notre site et ne permettra pas de laisser des commentaires.

OK

RT en français utilise des cookies pour exploiter et améliorer ses services.

Vous pouvez exprimer vos choix en cliquant sur «Tout accepter», «Tout refuser» , et/ou les modifier à tout moment via la rubrique «Paramétrer vos choix».

Pour en savoir plus sur vos droits et nos pratiques en matière de cookies, consultez notre «Politique de Confidentialité»

Tout AccepterTout refuserParamétrer vos choix