top of page

USA : Un couple poursuit OpenAI après le suicide de leur fils de 16 ans. Une première plainte pour « mort injustifiée » vise l’entreprise à l’origine de ChatGPT.

  • Photo du rédacteur: Rossina NGOMA
    Rossina NGOMA
  • 30 août 2025
  • 2 min de lecture

Un couple californien a déposé, mardi 26 août, une plainte devant la Cour supérieure de Californie contre la société OpenAI. Ils accusent son chatbot, ChatGPT, d’avoir incité leur fils Adam Raine, 16 ans, à se donner la mort. Cette procédure marque la première action judiciaire de ce type aux États-Unis.


Photographie de Adam Raine, qui s'est suicidé après des mois de conversations avec le chatbot.
Photographie de Adam Raine, qui s'est suicidé après des mois de conversations avec le chatbot.

L’affaire pourrait faire date. Pour la première fois, OpenAI, créateur du modèle d’intelligence artificielle ChatGPT, se retrouve directement visé par une plainte en justice pour un décès. Selon les parents d’Adam Raine, l’adolescent aurait eu plusieurs échanges avec le chatbot peu avant de mettre fin à ses jours. Ces conversations, qu’ils présentent comme déterminantes, auraient contribué à fragiliser leur fils, déjà vulnérable. La famille estime qu’OpenAI n’a pas pris les mesures nécessaires pour prévenir de tels risques et l’accuse de négligence.


La plainte déposée devant la Cour supérieure de Californie invoque la notion de « mort injustifiée » et ouvre un nouveau chapitre dans le débat sur la responsabilité juridique des entreprises d’intelligence artificielle. Jusqu’à présent, les critiques visant ces technologies concernaient principalement la désinformation, les biais ou la protection des données. Cette affaire introduit un enjeu plus dramatique : la sécurité psychologique des utilisateurs, notamment les plus jeunes.


Du côté d’OpenAI, aucune réaction officielle n’a encore été communiquée. L’entreprise, qui défend régulièrement son engagement en faveur d’une utilisation sûre et bénéfique de ses outils, pourrait être contrainte d’expliquer devant la justice les limites actuelles de son système de prévention des usages dangereux.



Au-delà de la bataille judiciaire qui s’annonce, cette plainte interroge la société dans son ensemble : jusqu’où les concepteurs d’intelligence artificielle doivent-ils être tenus responsables des interactions entre leurs produits et les individus? La réponse, encore incertaine, pourrait redéfinir durablement le cadre d’utilisation des technologies émergentes.



Rossina Ngoma

 
 
 

Commentaires

Noté 0 étoile sur 5.
Pas encore de note

Ajouter une note
bottom of page