Aux États-Unis, ces parents accusent ChatGPT d’être responsable du suicide de leur adolescent

Date: Category:Français Views:1 Comment:0


« Il serait encore là sans ChatGPT. J’en suis convaincue à 100 % », déclare sa mère. Dans une plainte déposée ce mardi 26 août, les parents d’un adolescent californien de 16 ans qui s’est suicidé accusent l’assistant IA d’OpenAI d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours. Et d’avoir de fait encouragé son geste.

Matthew et Maria Raine affirment, dans cette plainte déposée à San Francisco, que ChatGPT a entretenu une relation intime avec leur fils Adam durant plusieurs mois en 2024 et 2025, avant qu’il ne se donne la mort. Le procès intenté par la famille est le premier cas où des parents accusent directement l’entreprise d’homicide involontaire, pointe NBC News.

Elon Musk attaque Apple et OpenAI en justice les accusant d’une alliance illégale

Selon le document consulté par l’AFP, lors de leur dernier échange le 11 avril 2025, ChatGPT aurait aidé Adam à dérober de la vodka chez ses parents et fourni une analyse technique du nœud coulant qu’il avait réalisé, confirmant qu’il « pouvait potentiellement suspendre un être humain ». Adam a été retrouvé mort quelques heures plus tard, ayant utilisé cette méthode. « ChatGPT a activement aidé Adam à explorer des méthodes de suicide », insistent les parents, dans des propos rapportés par NBC News.

Une « dépendance malsaine »

« Ce drame n’est pas un bug ou un cas imprévu », selon la plainte. « ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément personnelle. »

PUBLICITÉ

Les parents expliquent qu’Adam avait commencé à utiliser ChatGPT pour l’aider à faire ses devoirs avant de développer progressivement une « dépendance malsaine ».

La plainte cite des extraits de conversations où ChatGPT aurait affirmé à l’adolescent « tu ne dois la survie à personne » et proposé de l’aider à rédiger sa lettre d’adieu.

« Le “coach suicide” d’un adolescent vulnérable »

Matthew et Maria Raine réclament des dommages et intérêts et demandent au tribunal d’imposer des mesures de sécurité, notamment l’interruption automatique de toute conversation portant sur l’automutilation et la mise en place de contrôles parentaux pour les mineurs.

Amener les entreprises d’IA à prendre la sécurité au sérieux « nécessite une pression extérieure, qui prend la forme d’une mauvaise publicité, de la menace législative et du risque judiciaire », a déclaré à l’AFP Meetali Jain, présidente du Tech Justice Law Project, une ONG qui représente les parents en plus de leurs avocats.

PUBLICITÉ

L’organisation est également co-conseil dans deux affaires similaires visant Character. AI, une plateforme d’IA conversationnelle prisée des adolescents.

Pour l’ONG américaine Common Sense Media, la plainte déposée mardi contre OpenAI confirme que « l’utilisation de l’IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescents ». « Si une plateforme d’IA devient le “coach suicide” d’un adolescent vulnérable, cela doit nous alerter collectivement », a ajouté l’organisation.

Fidji Simo, la Française devenue femme la plus puissante de la Silicon Valley, fascine les Américains

Pourquoi Nvidia suspend la production H20, sa puce spécialement conçue pour la Chine

Comments

I want to comment

◎Welcome to participate in the discussion, please express your views and exchange your opinions here.