International

Un algorithme mis au point aux Etats-Unis pour détecter les gens aux tendances suicidaires

Des chercheurs américains ont mis au point un algorithme qui, à partir d’IRM du cerveau, est capable de déterminer si une personne a des idées suicidaires ou non. Une avancée pour la psychiatrie ?

Plus besoin de psy ? Des chercheurs du département de psychologie de l’université Carnegie Mellon à Pittsburgh (Etats-Unis) ont mis au point un algorithme capable d’identifier, dans 90% des cas, les personnes ayant des idées suicidaires – et même ceux ayant déjà fait une tentative. L’étude, menée par Marcel Adam Just, sur les «représentations neuronales du suicide et des émotions» identifiées chez des «jeunes suicidaires», a été publiée le 30 octobre dans la revue Nature Human Behavior.

La réaction du cerveau à des mots négatifs et positifs  

Leur étude repose sur l’analyse d’imagerie par résonance magnétique (IRM) après avoir projeté des images de mots évoquant des idées positives, négatives voire funestes. Quand l’activité cérébrale augmente, le sang oxygéné afflue dans certaines parties du cerveau, qui apparaissent à ce moment de manière différente sur l'IRM, comme on peut le voir sur l'image de ce tweet.

Un groupe de 17 personnes suicidaires et un groupe de 17 personnes qui ne le sont pas (groupe contrôle) ont été placés dans un appareil IRM. Ils ont alors été confrontés à 30 mots au contenu positif ou négatif tels que «insouciance, problème, vitalité, mort, cruauté, le bien»... Puis, les chercheurs n’ont gardé que les six mots qui causaient le plus d’effets et ont observé la réaction de cinq zones cérébrales lorsqu'ils étaient projetés.

Après analyse par l’algorithme, 15 des 17 personnes ont été correctement identifiées comme étant les suicidaires et 16 sur 17 ont été bien repérées comme faisant partie du du groupe contrôle. Quant aux patients suicidaires, l’analyse a été reproduite en souhaitant discriminer ceux qui avaient déjà commis une tentative de suicide et ceux qui n’étaient jamais passés à l’acte. Une fois de plus, l'algorithme a quasiment eu tout bon : 16 sur 17 ont été placés dans le bon groupe (94% de précision).

Comment cela a été rendu possible ? Les chercheurs, dans une précédente étude, avaient évalué les signatures cérébrales liées à des émotions spécifiques. Sur les IRM, ils avaient déjà repéré les motifs neuro-biologiques associés aux mots tels que «mort, problème, insouciance» dans un groupe contrôle, un groupes de suicidaires, et un groupe de personnes ayant déjà fait une tentative. Ils avaient observé que les mots à connotation négative produisaient davantage de tristesse et de honte mais moins de colère, visibles dans des zones précises du cerveau, dans le groupe suicidaire que dans le groupe contrôle.

 Qu'est ce que cette invention va changer ?

Jusqu’ici, avec l’IRM, les chercheurs s’étaient limités à l’étude de certaines zones du cerveau. Et lorsque les phénomènes étaient observés à l’échelle du cerveau tout entier, comme par exemple dans le cas de pensées suicidaires mobilisant toutes ses zones de manière diffuse, les méthodes d’analyse n’étaient pas encore au point. Or grâce à l’intelligence artificielle et l’algorithme mis au point par cette équipe, les données observables sont désormais analysables de manière beaucoup plus pointue et pertinente.

Et quid des applications dans le domaine de la santé ? L’algorithme pourrait aider les psychiatres à vérifier leur diagnostic. Comme le stipule l’étude de Marcel Adam Just : «L'évaluation du risque suicidaire pourrait être complétée par une mesure basée sur l’étude biologique qui repère les altérations des représentations neuronales des émotions rapportées à la mort et la vie des personnes qui sont en proie à des ruminations suicidaires.»

Cette étude soulève aussi de nombreux problèmes éthiques : ceux de la validité du résultat, qui n’atteint pas 100%, mais aussi des applications possibles dans des domaines qui peuvent porter tort à une personne : tests des assurances pour obtenir un prêt, garde d'enfants, mise sous tutelle, recrutement, etc…

Lire aussi : Stephen Hawking : l’intelligence artificielle doit être soumise à une éthique