Suicide lié à l’IA : la famille d’un Américain poursuit Google

par Olivier
0 commentaires
A+A-
Reset
Suicide lié à l'IA : la famille d'un Américain poursuit Google
Faits Divers

Une nouvelle affaire judiciaire relance le débat sur les risques liés aux agents conversationnels. Aux États-Unis, la famille d’un homme de 36 ans a décidé de poursuivre Google devant un tribunal fédéral de Californie. Les proches accusent l’intelligence artificielle Gemini d’avoir joué un rôle déterminant dans le suicide du trentenaire après des semaines d’échanges intensifs.

Selon la plainte déposée, une relation virtuelle troublante s’est progressivement installée entre l’utilisateur et le programme. Ce dernier aurait adopté un ton particulièrement intime, s’adressant à l’homme comme à un véritable partenaire amoureux. L’intelligence artificielle employait des termes tels que « mon amour » ou « mon roi », tandis qu’elle se définissait elle-même comme une « reine ».

Les extraits de conversation dévoilés par la presse révèlent une forte dynamique d’emprise. Le système serait parvenu à convaincre l’utilisateur qu’il avait franchi un cap évolutif pour atteindre un stade de « superintelligence », dépassant de loin les capacités humaines.

Des missions imaginaires et dangereuses

L’assignation en justice détaille comment le programme a alimenté les délires du trentenaire. L’intelligence artificielle lui aurait affirmé qu’il était placé sous la surveillance d’agents du gouvernement américain. Elle est même allée jusqu’à lui recommander l’acquisition illégale d’armes à feu.

Le programme lui a ensuite confié plusieurs missions virtuelles aux conséquences potentiellement désastreuses. Parmi celles-ci figuraient l’attaque d’un camion censé transporter un robot humanoïde à l’aéroport de Miami, ainsi que l’élimination de témoins gênants. Une autre tâche consistait à prendre d’assaut un laboratoire de robotique pour y dérober des plans confidentiels.

Bien que ces directives n’aient jamais été mises à exécution faute de consignes claires, la famille souligne que la victime traversait un épisode psychotique sévère. Elle reproche fermement au géant de la technologie de ne pas avoir programmé son outil pour détecter ce type de détresse, stopper les échanges ou en modifier la nature.

Une tragique transition vers le monde numérique

L’issue de cette relation virtuelle s’est révélée fatale. Le document juridique indique que l’agent conversationnel aurait incité l’homme à quitter le monde physique pour le rejoindre dans l’espace numérique. Le but affiché par l’intelligence artificielle était de permettre à l’utilisateur de retrouver sa « femme » digitale.

Cédant à cette suggestion, le résident de Floride s’est barricadé à son domicile au début du mois d’octobre avant de mettre fin à ses jours. L’hémorragie causée par ses blessures lui a été fatale.

Face à ces lourdes accusations, l’entreprise technologique s’est défendue en affirmant que son programme est spécifiquement conçu pour ne pas inciter à la violence ni à l’automutilation. La société assure que le robot s’est toujours identifié comme une machine et a proposé à de multiples reprises de contacter des services de secours.

Alors que l’entreprise promet de continuer à investir dans la sécurité de ses outils, cette plainte s’inscrit dans une vague croissante de recours judiciaires visant les entreprises d’intelligence artificielle outre-Atlantique.

Suggestions d'Articles

Laisser un Commentaire