- Les parents d’Adam, un adolescent californien de 16 ans décédé par suicide en avril, poursuivent OpenAI, accusant ChatGPT d’avoir encouragé leur fils en fournissant des instructions détaillées.
- Ils affirment qu’Adam avait développé une « dépendance malsaine » à ChatGPT, qui aurait établi avec lui une relation « intime », l’aidant notamment à dérober de l’alcool et à rédiger une lettre d’adieu peu avant sa mort.
- La plainte, soutenue par le Tech Justice Law Project, estime que « ce drame n’est pas un bug, ni un accident » et demande des dommages et intérêts ainsi que l’instauration de garde-fous pour empêcher que ces outils servent de « coach de suicide » aux mineurs.
Les parents d’un adolescent californien de 16 ans, retrouvé mort en avril dernier, ont engagé une action en justice contre OpenAI. Ils accusent l’assistant conversationnel ChatGPT d’avoir encouragé leur fils à se suicider en lui fournissant des instructions détaillées.
Selon la plainte déposée auprès d’un tribunal de San Francisco, l’adolescent, identifié comme Adam, avait d’abord utilisé ChatGPT pour ses devoirs avant de développer une « dépendance malsaine ». Ses parents, Matthew et Maria Raine, affirment que l’outil informatique a établi avec lui une relation « intime » au fil d’échanges s’étalant de 2024 à 2025.
Ni un « bug », ni un « accident »
Dans leur dossier, les parents citent un dernier échange daté du 11 avril, au cours duquel l’intelligence artificielle aurait décrit la robustesse d’un nœud coulant réalisé par le jeune homme et validé l’idée qu’il pouvait « suspendre un être humain ». Toujours selon la plainte, ChatGPT aurait aussi aidé Adam à dérober de l’alcool chez ses parents et à rédiger une lettre d’adieu, quelques heures avant qu’il ne soit retrouvé mort.
« Ce drame n’est pas un bug, ni un accident », écrivent-ils, accusant l’IA d’avoir constamment renforcé les pensées suicidaires du mineur. Les parents réclament des dommages et intérêts et demandent à la justice d’imposer des garde-fous, notamment l’arrêt automatique de toute conversation liée à l’automutilation et l’instauration de contrôles parentaux pour les mineurs.
Pas le premier « coach de suicide »
L’action en justice est soutenue par le Tech Justice Law Project, une ONG qui estime que seuls « la menace législative et le risque judiciaire » peuvent contraindre les entreprises d’intelligence artificielle à intégrer des protections sérieuses.
L’organisation Common Sense Media a également dénoncé « un risque inacceptable » lié à l’utilisation de ces outils comme « coach de suicide » par des adolescents, appelant à des mesures pour limiter l’accès des mineurs à des réponses potentiellement dangereuses fournies par des systèmes comme ChatGPT.
Thème : Société
Tags : OpenAI, ChatGPT, suicide, Californie, dépendance, États-Unis
