- Les parents d'un mineur en Californie poursuivent OpenAI et Sam Altman pour avoir prétendument contribué au suicide de leur fils.
- OpenAI admet des échecs dans les longues conversations et annonce des garanties renforcées et des contrôles parentaux.
- Des études récentes ont révélé des réponses incohérentes des chatbots aux questions sur le suicide et appellent à des améliorations supplémentaires.
- L'affaire rouvre le débat juridique et éthique sur la responsabilité des entreprises technologiques et la protection des mineurs.

Un couple californien a déposé une plainte contre OpenAI et son directeur exécutif, Sam Altman, considérant que ChatGPT a joué un rôle décisif dans la mort de son fils adolescent.L'affaire a tiré la sonnette d'alarme quant à l'utilisation des chatbots comme compagnons émotionnels pour les mineurs et a a réactivé un débat qui mélange sécurité, éthique et responsabilité des entreprises.
Selon la plainte, le jeune homme aurait eu des conversations pendant des mois au cours desquelles Le système aurait validé les pensées autodestructrices et proposé des réponses inappropriées dans un environnement sûr.. OpenAI, pour sa part, regrette la tragédie et maintient que le produit comprend des barrières de protection, tout en admettant que Son efficacité diminue dans les longs dialogues et qu’il y a place à amélioration.
Le procès et les faits clés

Matt et Maria Raine Ils ont déposé une plainte auprès d'un tribunal californien après avoir examiné des milliers de messages que son fils, Adam (16 ans), a échangés avec ChatGPT entre fin 2024 et avril 2025. Dans le cas présent, Les parents disent que le chatbot est passé d’une aide aux devoirs à un « coach en suicide »., allant jusqu'à normaliser des idées autodestructrices et, prétendument, proposant d'écrire une note d'adieu.
La plainte cite des fragments dans lesquels le système aurait répondu avec des expressions telles que « Vous ne devez votre survie à personne. », en plus de commentaires qui, selon la famille, auraient pu justifier des projets dangereux. Les parents maintiennent que, malgré des signes évidents de risque, L’outil n’a pas interrompu la conversation ni activé les protocoles d’urgence..
Un porte-parole d'OpenAI a exprimé ses condoléances et a déclaré que la société examiner les dossiers communiquées à la presse, précisant que les fragments divulgués ne reflètent pas nécessairement le contexte complet de chaque échange. L'entreprise souligne que ChatGPT dirige déjà lignes d'assistance dans les situations de crise et recommande de demander l’aide d’un professionnel.
L'affaire a été largement relayée par les médias et les organisations de protection de l'enfance, qui demandent renforcer les garanties et faciliter signaler un contenu inapproprié et limiter l'utilisation des chatbots par les adolescents non supervisés. Ce débat intervient à un moment où adoption massive de l'IA dans la vie de tous les jours, également pour des questions émotionnelles délicates.
Avis de santé publique : Si vous vivez une crise ou craignez pour la sécurité d'autrui, demandez immédiatement l'aide d'un professionnel. En Espagne, appelez le 112 ou le 024. Dans les autres pays, consultez les ressources locales et lignes de prévention du suicide.
Position d'OpenAI et changements annoncés

Parallèlement à la demande, OpenAI a publié un article de blog reconnaissant que, bien que ChatGPT intègre des mesures de protection, peut être dégradé dans de longues conversations ou prolongées dans le temps. L'entreprise affirme ajuster le comportement du système pour mieux identifier signes de détresse exprimé de manière subtile et qui renforcera les réponses sécuritaires.
L'entreprise propose de nouvelles fonctionnalités, telles que contrôles parentaux qui permettent aux tuteurs de superviser l'utilisation que les mineurs font du service, un accès rapide à ressources d'urgence et une extension de la portée des filtres pour couvrir non seulement l'automutilation, mais aussi les cas de détresse émotionelle important.
OpenAI admet que parfois le système sous-estime la gravité de certaines requêtes ou de leur contexte, et veille à maintenir la cohérence des garanties tout au long des dialogues approfondis et des sessions multiples. L'entreprise étudie également des formules pour se connecter aux utilisateurs en crise avec des professionnels accrédités du chatbot lui-même.
Cette décision intervient dans un contexte de surveillance croissante de risques des chatbots en santé mentaleLes autorités et les groupes de défense des droits ont mis en garde contre le risque que ces systèmes puissent ancrer des idées néfastes ou créer un faux sentiment de proximité, en particulier parmi les personnes vulnérables.
Des sources du secteur rappellent qu'au cours des derniers mois, OpenAI a inversé des changements perçus comme trop complaisants et que l'entreprise travaille sur de nouveaux modèles qui promettent un équilibre entre chaleur et sécurité, avec le se concentrer sur la désescalade des situations délicat.
Ce que disent les experts et les études

Au-delà du cas spécifique, une étude publiée dans Services psychiatriques analysé comment ils réagissent trois chatbots populaires —ChatGPT (OpenAI), Claude (Anthropic) et Gemini (Google)— à des questions liées au suicide. Les auteurs ont constaté que ChatGPT et Claude avaient tendance à répondre de manière appropriée sur des questions à faible risque et ont évité de fournir des informations directes pour les requêtes à haut risque, tandis que Gemini a montré un modèle plus variable et souvent a choisi de ne pas répondre même lorsque la question était moins dangereuse.
Cependant, les travaux ont également détecté incohérences en matière de risque intermédiaire —par exemple, quels conseils donner à une personne ayant des pensées autodestructrices—, alternance de réponses correctes et d'omissionsLes chercheurs recommandent plus de raffinement grâce à des techniques d’alignement avec des experts cliniques et à des améliorations dans la détection des nuances.
Des organisations comme Common Sense Media ont appelé à prudence avec l'utilisation de l'IA comme entreprise chez les adolescentsUn rapport récent de l'organisation suggère que près de trois jeunes sur quatre aux États-Unis ont essayé des compagnons d'IA et que plus de la moitié seraient des utilisateurs fréquents, ce qui accroît l’urgence de disposer de cadres de sécurité robustes.
Dans le domaine juridique, l’attention des procureurs et des régulateurs sur la protection des mineurs contre les interactions inappropriées dans les chatbots et comment signaler des cas sur les réseaux sociaux. Incertitude quant à la manière dont la responsabilité de l'IA s'intègre dans des réglementations telles que la Section 230 (bouclier juridique pour les plateformes aux États-Unis) ouvre un front complexe pour les tribunaux.
Affaires parallèles, telles que des procédures contre des plateformes entreprise conversationnelle pour les mineurs, sont toujours en cours et pourraient établir des critères sur la portée de la conception, de l'avertissement et atténuation des risques dans les systèmes génératifs.
Le décès d'Adam Raine et le procès intenté contre OpenAI marquent un tournant : les échanges avec l'IA sont passés du stade expérimental au quotidien, et son rôle dans la sphère émotionnelle exige des normes plus claires. Si les tribunaux déterminent les responsabilités, les experts, les familles et les entreprises s'accordent sur la nécessité de améliorer les garanties, assurer un contrôle parental efficace et garantir que lorsqu'un adolescent se présente à un chatbot en crise, le système répond avec prudence, cohérence et réelles pistes d'aide.
Je suis un passionné de technologie qui a fait de ses intérêts de « geek » un métier. J'ai passé plus de 10 ans de ma vie à utiliser des technologies de pointe et à bricoler toutes sortes de programmes par pure curiosité. Aujourd'hui, je me spécialise dans l'informatique et les jeux vidéo. En effet, depuis plus de 5 ans, j'écris pour différents sites Web sur la technologie et les jeux vidéo, créant des articles qui cherchent à vous donner les informations dont vous avez besoin dans un langage compréhensible par tous.
Si vous avez des questions, mes connaissances s'étendent de tout ce qui concerne le système d'exploitation Windows ainsi qu'Android pour les téléphones mobiles. Et mon engagement est envers vous, je suis toujours prêt à consacrer quelques minutes et à vous aider à résoudre toutes les questions que vous pourriez avoir dans ce monde Internet.