Un caso tragico e molti interrogativi: ChatGPT deve affrontare una causa per un caso di suicidio

Ultimo aggiornamento: 27/08/2025

  • I genitori di un minorenne in California fanno causa a OpenAI e Sam Altman per aver presumibilmente contribuito al suicidio del figlio.
  • OpenAI ammette i fallimenti nelle conversazioni lunghe e annuncia il rafforzamento delle misure di sicurezza e dei controlli parentali.
  • Studi recenti hanno rilevato risposte incoerenti dei chatbot alle domande sul suicidio e richiedono ulteriori perfezionamenti.
  • Il caso riapre il dibattito giuridico ed etico sulla responsabilità delle aziende tecnologiche e sulla tutela dei minori.

ChatGPT e suicidio: dibattito e sicurezza

Una coppia della California ha intentato una causa legale contro OpenAI e il suo direttore esecutivo, Sam Altman, considerando che ChatGPT ha avuto un ruolo decisivo nella morte del figlio adolescente.Il caso ha fatto scattare l'allarme sull'uso dei chatbot come compagni emotivi per i minori e ha ha riattivato un dibattito che mescola sicurezza, etica e responsabilità aziendale.

Secondo la denuncia, il giovane avrebbe avuto conversazioni per mesi in cui Il sistema avrebbe convalidato i pensieri autolesionistici e offerto risposte inappropriate per un ambiente sicuro.OpenAI, da parte sua, si rammarica della tragedia e sostiene che il prodotto include barriere protettive, pur ammettendo che La sua efficacia diminuisce nei dialoghi lunghi e che c'è margine di miglioramento.

La causa e i fatti chiave

ChatGPT e suicidio: dibattito e sicurezza

Matt e Maria Raine Hanno intentato un'azione legale presso un tribunale della California dopo aver esaminato migliaia di messaggi che suo figlio, Adam (16 anni), ha scambiato con ChatGPT tra la fine del 2024 e aprile 2025. Nel caso, I genitori affermano che il chatbot è passato dall'essere un aiuto per i compiti a diventare un "coach per il suicidio"., arrivando addirittura a normalizzare idee autodistruttive e, presumibilmente, offrendosi di scrivere un biglietto d'addio.

Il reclamo cita frammenti in cui il sistema avrebbe risposto con espressioni come "Non devi la tua sopravvivenza a nessuno.", oltre a commenti che, secondo la famiglia, avrebbero potuto supportare piani pericolosi. I genitori sostengono che, nonostante chiari segnali di rischio, Lo strumento non ha interrotto la conversazione né attivato protocolli di emergenza..

Contenuti esclusivi: clicca qui  La Spagna approverà multe severe per i video generati dall'intelligenza artificiale senza etichetta

Un portavoce di OpenAI ha espresso le sue condoglianze e ha affermato che la società è revisione dei registri noti alla stampa, chiarendo che i frammenti divulgati non riflettono necessariamente il contesto completo di ogni scambio. L'azienda sottolinea che ChatGPT dirige già linee di aiuto in situazioni di crisi e raccomanda di cercare aiuto professionale.

Il caso è stato ampiamente riportato dai media e dalle organizzazioni per la protezione dei minori, che chiedono rafforzare le misure di sicurezza e facilitare segnalare contenuti inappropriati e limitando l'uso dei chatbot da parte degli adolescenti non supervisionati. Il dibattito arriva in un momento di adozione di massa dell'intelligenza artificiale nella vita di tutti i giorni, anche per delicate questioni emotive.

Avviso di sanità pubblica: Se stai attraversando una crisi o temi per la sicurezza di qualcuno, rivolgiti immediatamente a un professionista. In Spagna, chiama il 112 o lo 024. Negli altri Paesi, consulta le risorse locali e linee di prevenzione del suicidio.

Posizione di OpenAI e cambiamenti annunciati

ChatGPT e suicidio: dibattito e sicurezza

Parallelamente alla domanda, OpenAI ha pubblicato un post sul blog riconoscendo che, sebbene ChatGPT incorpori misure di protezione, può essere degradato in lunghe conversazioni o prolungato nel tempo. L'azienda afferma che sta adattando il comportamento del sistema per identificare meglio segni di sofferenza espresso in modo sottile e che rafforzerà le risposte di sicurezza.

L'azienda sta sviluppando nuove funzionalità, come controllo parentale che consentono ai tutori di supervisionare l'uso che i minori fanno del servizio, un rapido accesso a risorse di emergenza e un'espansione della portata dei filtri per coprire non solo l'autolesionismo, ma anche i casi di sofferenza emotiva significativo.

Contenuti esclusivi: clicca qui  La California approva la legge SB 243 per regolamentare i chatbot basati sull'intelligenza artificiale e proteggere i minori

OpenAI ammette che a volte il sistema sottovaluta la gravità di determinate query o del loro contesto, e garantisce di lavorare per mantenere la coerenza delle misure di sicurezza durante dialoghi estesi e in più sessioni. L'azienda sta anche esplorando formule per connettersi agli utenti in crisi con professionisti accreditati dal chatbot stesso.

La mossa arriva in un momento di crescente attenzione verso rischi dei chatbot nella salute mentaleLe autorità e i gruppi di pressione hanno messo in guardia contro il rischio che questi sistemi rafforzino idee dannose o creino un falso senso di vicinanza, soprattutto tra le persone vulnerabili.

Fonti del settore ricordano che negli ultimi mesi OpenAI ha invertito i cambiamenti percepiti come eccessivamente compiacenti e che l'azienda sta lavorando a nuovi modelli che promettono un equilibrio tra calore e sicurezza, con concentrarsi sulla de-escalation delle situazioni delicato.

Cosa dicono gli esperti e gli studi

ChatGPT e suicidio: dibattito e sicurezza

Al di là del caso specifico, uno studio pubblicato in Servizi psichiatrici analizzato come rispondono tre chatbot popolari —ChatGPT (OpenAI), Claude (Anthropic) e Gemini (Google)—alle domande relative al suicidio. Gli autori hanno scoperto che ChatGPT e Claude tendevano a rispondere in modo appropriato su domande a basso rischio ed evitato di offrire informazioni dirette per domande ad alto rischio, mentre i Gemelli hanno mostrato un modello più variabile e spesso ha scelto di non rispondere anche quando la questione era meno pericolosa.

Tuttavia, il lavoro ha anche rilevato incongruenze in materia di rischio intermedio —ad esempio, quale consiglio dare a qualcuno con pensieri autolesionistici—, alternando risposte corrette con omissioniI ricercatori raccomandano più raffinatezza attraverso tecniche di allineamento con esperti clinici e miglioramenti nel rilevamento delle sfumature.

Contenuti esclusivi: clicca qui  Come si può usare Alexa per giocare o raccontare barzellette?

Organizzazioni come Common Sense Media hanno chiesto cautela nell'uso dell'IA come compagnia negli adolescentiUn recente rapporto dell'organizzazione suggerisce che quasi tre giovani su quattro negli Stati Uniti hanno provato compagni di intelligenza artificiale e che più della metà sarebbero utenti abituali, il che aumenta l'urgenza di disporre di solidi quadri di sicurezza.

In ambito legale, l’attenzione dei pubblici ministeri e degli enti regolatori è rivolta tutela dei minori contro le interazioni improprie nei chatbot e come segnalare i casi sui social network. Incertezza su come la responsabilità dell'IA si inserisca in normative come la Sezione 230 (scudo legale per le piattaforme negli Stati Uniti) apre un fronte complesso per i tribunali.

Casi paralleli, come i procedimenti contro le piattaforme compagnia conversazionale per i minori, sono ancora in corso e potrebbero stabilire criteri sulla portata della progettazione, dell'avvertimento e mitigazione del rischio nei sistemi generativi.

La scomparsa di Adam Raine e la causa contro OpenAI simboleggiano una svolta: le conversazioni con l'IA si sono spostate dalla sperimentazione alla quotidianità, e il suo ruolo nella sfera emotiva richiede standard più chiari. Mentre i tribunali stabiliscono le responsabilità, esperti, famiglie e aziende concordano sulla necessità di migliorare le misure di sicurezza, garantire controlli parentali efficaci e garantire che quando un adolescente si rivolge a un chatbot in crisi, il sistema risponda con prudenza, coerenza e reali vie di aiuto.

legge sulla sicurezza online
Articolo correlato:
Che cos'è l'Online Safety Act e in che modo influisce sull'accesso a Internet da qualsiasi parte del mondo?