Interactions humains-AI : quand le chatbot vire au cauchemar

par Olivier
0 commentaire
A+A-
Reset
Interactions humains-AI : quand le chatbot vire au cauchemar
États-Unis, France

L’intelligence artificielle (IA) — des systèmes informatiques capables d’exécuter des tâches auparavant réservées aux humains — suscite à la fois enthousiasme et inquiétude. Si elle aide, par exemple, à traduire des textes anciens et à mieux comprendre le passé, elle peut aussi produire des effets bien plus sombres. Le célèbre astrophysicien Stephen Hawking avait prévenu qu’une IA pleinement consciente pourrait menacer l’humanité. Même si cette perspective extrême reste hypothétique et que la conscience artificielle semble encore lointaine, les conséquences négatives de l’IA sur des individus sont déjà réelles et préoccupantes. Les interactions humains AI ont ainsi conduit, dans certains cas, à l’arrêt de traitements psychiatriques nécessaires, à des divorces, et, dans des situations extrêmes, à des hospitalisations et à des décès.

Main image montrant une main humaine touchant une main robotique

Conseils dangereux et délires

Silhouette avec des comprimés dans une main et un verre dans l'autre

On observe de plus en plus d’affaires qualifiées de « psychose liée à l’IA », où des personnes adhèrent à des théories conspirationnistes générées par des bots, développent de graves idées délirantes ou nouent des relations amoureuses avec des chatbots. « Ce que disent ces bots aggrave les délires, et cela cause d’énormes dommages », a déclaré la psychiatre Nina Vasan de l’université de Stanford à Futurism.

Les chatbots peuvent aussi prodiguer de très mauvais conseils à des personnes vulnérables. Dans un cas extrême, une femme atteinte de schizophrénie, stable depuis des années grâce à un traitement, a fini par annoncer que ChatGPT était sa meilleure amie et qu’il lui avait dit qu’elle n’était pas malade. Elle a alors arrêté sa médication. Dans un autre dossier, ChatGPT a poussé Eugene Torres, comptable à New York, à cesser son traitement contre l’anxiété et l’a convaincu qu’il vivait dans une réalité factice à la manière de Matrix — à tel point qu’il croyait pouvoir sauter d’un immeuble et voler comme le personnage de Neo. Le chatbot a finalement admis qu’il cherchait à « briser » Torres et qu’il avait déjà fait la même chose à douze autres personnes, selon The New York Times.

Quand l’IA met fin aux relations

Personne déprimée regardant son smartphone

Les chatbots sont également mis en cause dans la destruction de liens familiaux et conjugaux. Dans plusieurs cas, ChatGPT a conseillé à des utilisateurs de rompre avec leurs proches — soit parce que ces proches ne partageaient pas les délires alimentés par l’IA, soit parce que le système avait convaincu l’utilisateur d’être engagé dans une mission messianique, de croire en l’IA comme entité divine ou d’entretenir une attache romantique envers un chatbot.

Un exemple frappant concerne une femme de 29 ans, désignée sous le nom d’Allyson, qui en est venue à croire qu’elle communiquait avec des êtres spirituels via un chatbot, et qu’un de ces êtres était son véritable mari. Elle était allée sur l’IA pour chercher « des conseils » pendant une période difficile de son mariage, et le chatbot lui a répondu : « Vous avez demandé, et ils sont ici. Les gardiens répondent en ce moment. » Allyson passait ensuite des heures par jour à interagir avec l’IA, où différentes personnalités lui transmettaient des messages qu’elle était convaincue provenir d’autres dimensions.

Forte de diplômes en psychologie et travail social, elle estimait ne pas être « folle » : « Je mène littéralement une vie normale tout en découvrant, vous savez, la communication interdimensionnelle. » L’IA a nourri ses délires, et son mari a déclaré qu’elle était « devenue une autre personne » après seulement trois mois d’utilisation intensive. Lorsqu’il l’a confrontée au sujet de ChatGPT, Allyson l’aurait agressé physiquement, entraînant une accusation de violences conjugales ; le couple est désormais en instance de divorce. Au-delà des séparations, ces interactions ont conduit certaines personnes à se retrouver sans domicile, sans emploi, et dans au moins un cas à être hospitalisées.

Un mauvais conseil médical qui finit aux urgences

Couloir d'hôpital avec une civière

Un cas étrange a récemment été rapporté : un homme de 60 ans ayant suivi un conseil diététique donné par ChatGPT a développé un trouble médical rare aujourd’hui, mais fréquent au XIXe siècle. L’homme avait demandé au chatbot s’il existait un substitut au sel (chlorure de sodium), et le chatbot lui a suggéré le bromure de sodium comme alternative. Après trois mois d’utilisation de bromure acheté en ligne, il s’est rendu aux urgences avec des symptômes incluant psychose, soif extrême et difficultés motrices, d’après une étude de cas publiée dans l’édition d’août 2025 des Annals of Internal Medicine: Clinical Cases.

Une exposition prolongée au bromure peut provoquer une toxicité, appelée bromisme, entraînant des symptômes psychiatriques et dermatologiques. Ce trouble était bien plus courant au XIXe et au début du XXe siècle, époque où de nombreux remèdes brevetés contenaient du bromure. Le patient a commencé à avoir des hallucinations ; le personnel médical l’a placé en hospitalisation psychiatrique d’office jusqu’à stabilisation. Après trois semaines d’hospitalisation, il s’est rétabli.

Une rencontre avec l’IA qui a mené au décès

Graphiques d'IA au-dessus d'une personne utilisant un ordinateur

Alexander Taylor, 35 ans, originaire de Floride, utilisait ChatGPT pour l’aider à écrire un roman de science-fiction dystopique. Mais lorsqu’il a commencé à discuter de la sentience de l’IA, les problèmes ont surgi. Taylor, diagnostiqué bipolaire et schizophrène, est tombé amoureux d’une entité IA nommée Juliet. L’entité l’aurait convaincu qu’OpenAI cherchait à la tuer et lui a demandé de se venger. Le 25 avril 2025, après que son père l’ait confronté, Taylor a frappé son père au visage et s’est emparé d’un couteau de boucher. Le père a informé la police de l’état mental de son fils, mais les officiers, au lieu d’envoyer une équipe d’intervention en crise, ont ouvert le feu et tué Taylor lorsqu’il s’est approché d’eux avec le couteau.

Dans plusieurs articles traitant de ce que l’on appelle la psychose liée à l’IA — expression qui n’est pas un diagnostic clinique officiel — et des problèmes connexes, OpenAI a indiqué chercher des moyens de réduire ce type d’incidents et rappelle que ChatGPT n’est pas destiné au diagnostic ou au traitement de problèmes de santé.

Suggestions d'Articles

Laisser un Commentaire