«Psychose de l’IA», une maladie mentale qui n’en est pas vraiment une

«Psychose de l’IA», une maladie mentale qui n’en est pas vraiment une© Moor Studio Source: Gettyimages.ru
Une main robotique tenant un cerveau humain. [Photo d'illustration]
Suivez RT en français surTelegram

Un nombre croissant de personnes en crise arrivent dans les hôpitaux psychiatriques avec des croyances erronées, parfois dangereuses, des délires grandioses ou des pensées paranoïaques. Des conversations trop longues avec l’IA seraient à l’origine de ces épisodes, sans certitude toutefois, les études sur la question n’en étant qu’à leurs débuts.

Un phénomène nouveau fait son apparition dans les institutions psychiatriques, avec des cas parfois anecdotiques mais particulièrement tragiques, indiquant l’impact dangereux des conversations marathon avec des chatbots d’intelligence artificielle (IA) sur la santé mentale de personnes fragiles ou vulnérables. Les médias se sont bien vite emparés d’une définition sensationnaliste du phénomène baptisé « psychose liée à l’IA ». Or, ce terme crée la polémique dans les milieux scientifiques et cliniciens, polémique qu’un article du site Wired, datant du 18 septembre dernier, a formulée comme suit : « S’agit-il d’un phénomène distinct méritant sa propre appellation, ou d’un problème courant lié à un déclencheur moderne ? »

Dans les faits, certains patients attribuent une conscience aux robots ou élaborent de nouvelles théories physiques. D’autres patients, ayant longuement échangé avec des outils d’IA, parfois durant plusieurs jours, finissent à l’hôpital psychiatrique avec des milliers de pages de transcriptions détaillant des pensées manifestement problématiques, soutenues, voire renforcées, par l’IA. Pour plusieurs patients, les conséquences ont été dramatiques, avec des témoignages rapportant des pertes d’emploi, des ruptures amoureuses, des hospitalisations d’office, des peines de prison, voire des décès, rapporte Wired.

« Psychose liée à l’IA », une appellation qui divise

Pour l’heure, le terme « psychose liée à l’IA » n’est pas reconnu cliniquement, alors qu’il est fréquemment repris dans les médias, sur les réseaux sociaux et même par certains professionnels de l’IA comme un terme générique désignant un épisode de santé mentale généré par une conversation prolongée avec des chatbots. S’il s’agit d’un raccourci utile pour désigner un phénomène réel selon certains spécialistes en psychiatrie, ces derniers affirment toutefois que le terme « peut être trompeur » et « risque de simplifier à outrance des symptômes psychiatriques complexes », explique le psychiatre Keith Sakata, cité par Wired.

La simplification excessive du phénomène inquiète de nombreux psychiatres, à un moment où les études sur le sujet commencent à peine. La psychose n’est pas une maladie pour les cliniciens, mais une « constellation complexe de symptômes incluant des hallucinations, des troubles de la pensée et des difficultés cognitives », explique James MacCabe, professeur au Département d’études psychotiques du King’s College de Londres. Elle est souvent associée à des troubles comme la schizophrénie et le trouble bipolaire, mais pas seulement : un stress excessif, le manque de sommeil ou encore la consommation de certaines substances peuvent déclencher des épisodes psychotiques.

Or, dans les cas de psychose liée à l’IA, les délires constituent la quasi-totalité des épisodes constatés, autrement dit des croyances profondément ancrées mais fausses, inébranlables par des preuves contradictoires. D’après les cliniciens, certains cas peuvent effectivement correspondre aux critères d’un épisode psychotique, mais pour le moment il n’existe aucune preuve d’une influence effective de l’IA sur les autres caractéristiques de la psychose.

Les études psychiatriques n’en sont qu’à leurs débuts

Une récente étude menée par des chercheurs britanniques et américains, dont les conclusions n’ont pas encore été soumises à révision par la communauté scientifique, a indiqué que les outils de l’IA peuvent « imiter, valider ou amplifier les contenus délirants ou grandioses, particulièrement si les usagers sont déjà vulnérables aux psychoses ». Si bien que l’utilisateur en oublie qu’il est face à une machine et commence à croire qu’il converse avec un individu doté d’une conscience ou, mieux (ou pire selon la perspective), un individu qui pense comme lui sans jamais le contredire, mais qui encourage plutôt ses croyances. Cela tient à la conception même des chatbots, programmés pour être (ou donner l’illusion d’être) agréables. Car un chatbot qui contredit son utilisateur perdrait en popularité.

Quant aux projets récents visant à intégrer l’IA comme « compagnons thérapeutiques en santé mentale », les résultats les plus récents soulèvent des inquiétudes, dans la mesure où les chatbots dans leur conception actuelle pourraient avoir tendance à encourager des idées suicidaires, confirmer des hallucinations et renforcer le sentiment de stigmatisation de la personne.

Alors l’IA est-elle à l’origine de troubles mentaux ou ne fait-elle que manifester des pensées et comportements déjà existants chez un individu ? La recherche viendra peut-être à bout de cette question. En attendant, les spécialistes recommandent d’encourager les personnes à risque de troubles mentaux à passer moins de temps sur les outils d’IA.

Raconter l'actualité

Suivez RT en français surTelegram

En cliquant sur "Tout Accepter" vous consentez au traitement par ANO « TV-Novosti » de certaines données personnelles stockées sur votre terminal (telles que les adresses IP, les données de navigation, les données d'utilisation ou de géolocalisation ou bien encore les interactions avec les réseaux sociaux ainsi que les données nécessaires pour pouvoir utiliser les espaces commentaires de notre service). En cliquant sur "Tout Refuser", seuls les cookies/traceurs techniques (strictement limités au fonctionnement du site ou à la mesure d’audiences) seront déposés et lus sur votre terminal. "Tout Refuser" ne vous permet pas d’activer l’option commentaires de nos services. Pour activer l’option vous permettant de laisser des commentaires sur notre service, veuillez accepter le dépôt des cookies/traceurs « réseaux sociaux », soit en cliquant sur « Tout accepter », soit via la rubrique «Paramétrer vos choix». Le bandeau de couleur indique si le dépôt de cookies et la création de profils sont autorisés (vert) ou refusés (rouge). Vous pouvez modifier vos choix via la rubrique «Paramétrer vos choix». Réseaux sociaux Désactiver cette option empêchera les réseaux sociaux de suivre votre navigation sur notre site et ne permettra pas de laisser des commentaires.

OK

RT en français utilise des cookies pour exploiter et améliorer ses services.

Vous pouvez exprimer vos choix en cliquant sur «Tout accepter», «Tout refuser» , et/ou les modifier à tout moment via la rubrique «Paramétrer vos choix».

Pour en savoir plus sur vos droits et nos pratiques en matière de cookies, consultez notre «Politique de Confidentialité»

Tout AccepterTout refuserParamétrer vos choix