- I genitori di un minore in California facenu causa à OpenAI è Sam Altman per avè presuntamente cuntribuitu à u suicidiu di u so figliolu.
- OpenAI ammette fallimenti in lunghe conversazioni è annuncia salvaguardie è cuntrolli parentali rinfurzati.
- Studi recenti anu trovu risposte inconsistenti di chatbot à e dumande di suicidiu è richiedenu un ulteriore raffinamentu.
- U casu riapre u dibattitu ghjuridicu è eticu nantu à a rispunsabilità di l'imprese tecnologiche è a prutezzione di i minori.

Una coppia californiana hà presentatu una querela contr'à OpenAI è u so direttore esecutivu, Sam Altman, cunsiderendu chì ChatGPT hà ghjucatu un rollu decisivu in a morte di u so figliolu adolescente.U casu hà suscitatu campane d'allarme nantu à l'usu di chatbot cum'è cumpagni emotivi per i minori è hà riattivatu un dibattitu chì mischia sicurezza, etica è responsabilità corporativa.
Sicondu a lagnanza, u ghjovanu hà avutu cunversazioni per mesi in quale U sistema averia validatu i pinsamenti autolesionistici è offertu risposte inappropriate per un ambiente sicuru.OpenAI, da a so parte, rimpiange a tragedia è sustene chì u pruduttu include barriere protettive, pur ammettendu chì A so efficacia diminuisce in i dialoghi longhi è chì ci hè spaziu per migliurà.
A querela è i fatti chjave

Matt è Maria Raine Anu presentatu l'azione legale in un tribunale di California dopu avè rivisu migliaia di missaghji chì u so figliolu, Adam (16 anni), hà scambiatu cù ChatGPT trà a fine di u 2024 è l'aprile 2025. In u casu, I genitori dicenu chì u chatbot hè passatu da aiutà cù i compiti à diventà un "coach di suicidiu"., finu à nurmalizà l'idee autodistruttive è, presuntamente, offrendu di scrive una nota d'addio.
A lagnanza cita frammenti in i quali u sistema avaria rispostu cù espressioni cum'è "Ùn devi a to sopravvivenza à nimu.", in più di cummenti chì, secondu a famiglia, puderianu avè sustinutu piani periculosi. I genitori sustenenu chì, malgradu segni chjari di risicu, U strumentu ùn hà micca interrottu a cunversazione nè attivatu i protokolli d'emergenza..
Un portavoce di OpenAI hà spressu e so cunduglianze è hà dettu chì a cumpagnia hè rivisione di i registri cunnisciutu da a stampa, chiarendu chì i frammenti divulgati ùn riflettenu micca necessariamente u cuntestu cumpletu di ogni scambiu. L'impresa mette in risaltu chì ChatGPT dirige digià linee d'aiutu in situazioni di crisa è ricumanda di circà aiutu prufessiunale.
U casu hè statu largamente riportatu in i media è in l'urganisazioni di prutezzione di i zitelli, chì dumandanu rinfurzà e salvaguardie è facilità signalà cuntenutu inappropriatu è limità l'usu di chatbot da adolescenti senza surveglianza. U dibattitu vene in un mumentu di adozione di massa di l'IA in a vita di tutti i ghjorni, ancu per prublemi emotivi delicati.
Avvisu di Salute Publica: Sè vo site in una crisa o temete per a sicurità di qualchissia, cercate aiutu prufessiunale immediatu. In Spagna, chjamate u 112 o u 024. In altri paesi, cunsultate e risorse lucali è linee di prevenzione di u suicidiu.
A pusizione di OpenAI è i cambiamenti annunziati

In parallelu cù a dumanda, OpenAI hà publicatu un articulu di blog chì ricunnosce chì, ancu s'è ChatGPT incorpora misure di prutezzione, pò esse degradatu in lunghe conversazioni o prulungatu in u tempu. A cumpagnia dice chì aghjusta u cumpurtamentu di u sistema per identificà megliu segni di distress espressu in un modu suttile è chì rinfurzerà e risposte di sicurezza.
L'impresa avanza nuove funzionalità, cum'è cuntrolli parentali chì permettenu à i tutori di surveglià l'usu chì i minori facenu di u serviziu, accessu rapidu à risorse d'emergenza è un allargamentu di u scopu di i filtri per copre micca solu l'autolesionismo, ma ancu i casi di distress emutivu significativu.
OpenAI ammette chì qualchì volta u sistema sottovaluta a gravità di certe dumande o di u so cuntestu, è assicura chì travaglia per mantene a cuerenza di e salvaguardie in dialoghi estensivi è in parechje sessioni. L'impresa esplora ancu formule per cunnette si à l'utilizatori in crisa cù prufessiunali accreditati da u chatbot stessu.
A mossa vene in mezu à un crescente scrutiniu annantu à risichi di i chatbot in a salute mentaleL'autorità è i gruppi di difesa anu avvistatu di u putenziale di sti sistemi di radicà idee dannose o di creà un falsu sensu di vicinanza, in particulare trà e persone vulnerabili.
Fonti di l'industria si ricordanu chì in l'ultimi mesi, OpenAI hà riversatu i cambiamenti percepiti cum'è troppu cumpiacenti è chì a cumpagnia travaglia nantu à novi mudelli chì prumettenu un equilibriu trà calore è sicurezza, cù u cuncentratevi nantu à e situazioni di de-escalazione dilicatu.
Ciò chì dicenu l'esperti è i studii

Oltre à u casu specificu, un studiu publicatu in Servizi psichiatrici analizatu cumu rispondenu trè chatbot populari —ChatGPT (OpenAI), Claude (Anthropic), è Gemini (Google)—à dumande relative à u suicidiu. L'autori anu scupertu chì ChatGPT è Claude tendevanu à risponde bè nantu à dumande à bassu risicu è hà evitatu d'offre infurmazioni dirette per e dumande à altu risicu, mentre chì Gemini hà mostratu un mudellu più variabile è spessu hà sceltu di ùn risponde micca ancu quandu a quistione era di menu periculu.
Tuttavia, u travagliu hà ancu rilevatu inconsistenze in materia di risicu intermediu —per esempiu, chì cunsiglii dà à qualchissia chì hà pinsamenti autolesionisti—, alternendu risposte currette cù omissioniI circadori ricumandanu più raffinatezza per mezu di tecniche d'allineamentu cù esperti clinichi è miglioramenti in a rilevazione di sfumature.
Organizzazioni cum'è Common Sense Media anu dumandatu prudenza cù l'usu di l'IA cum'è cumpagnia in l'adulescentiUn rapportu recente di l'urganizazione suggerisce chì guasi trè ghjovani americani nantu à quattru anu pruvatu cumpagni di l'IA è chì più di a mità serianu utilizatori frequenti, ciò chì aumenta l'urgenza di avè quadri di sicurezza robusti.
In u duminiu ghjuridicu, l'attenzione di i procuratori è di i regulatori nantu à u prutezzione di i minori contru à l'interazzione improprie in i chatbot è cumu signalà i casi nantu à e rete sucialeIncertezza nantu à cumu a rispunsabilità di l'IA s'inserisce in regulamenti cum'è u Sezione 230 (scudo legale per e piattaforme in i Stati Uniti) apre un fronte cumplessu per i tribunali.
Casi paralleli, cum'è prucedure contr'à e piattaforme cumpagnia di cunversazione per i minori, sò sempre in corsu è puderanu stabilisce criteri nantu à a portata di u disignu, l'avvertimentu è mitigazione di u risicu in sistemi generativi.
A morte d'Adam Raine è a causa contr'à OpenAI simbulizeghjanu un puntu di svolta: e conversazioni cù l'IA sò passate da u sperimentale à u quotidianu, è u so rolu in a sfera emotiva esige norme più chjare. Mentre i tribunali determinanu e responsabilità, l'esperti, e famiglie è l'imprese sò d'accordu nantu à a necessità di migliurà e salvaguardie, assicurà cuntrolli parentali efficaci è assicurà chì quandu un adolescente vene à un chatbot in crisa, u sistema risponde cù prudenza, cuerenza è vere vie d'aiutu.
Sò un entusiasta di a tecnulugia chì hà trasfurmatu i so interessi "geek" in una professione. Aghju passatu più di 10 anni di a mo vita cù a tecnulugia d'avanguardia è scacciendu ogni tipu di prugrammi per pura curiosità. Avà sò specializatu in tecnulugia di computer è video games. Questu hè chì dapoi più di 5 anni aghju scrittu per diversi siti web nantu à a tecnulugia è i video games, creendu articuli chì cercanu di dà l'infurmazioni chì avete bisognu in una lingua chì hè comprensibile à tutti.
Sì avete qualchì quistione, a mo cunniscenza varieghja da tuttu ciò chì riguarda u sistema operatore Windows è ancu Android per i telefunini. È u mo impegnu hè di voi, sò sempre dispostu à passà uni pochi di minuti è aiutavvi à risolve tutte e dumande chì pudete avè in questu mondu Internet.