- Părinții unui minor din California dau în judecată OpenAI și Sam Altman pentru că ar fi contribuit la sinuciderea fiului lor.
- OpenAI admite eșecurile în conversațiile lungi și anunță măsuri de siguranță și controale parentale consolidate.
- Studii recente au descoperit răspunsuri inconsistente ale chatbot-urilor la solicitările de sinucidere și necesită perfecționare suplimentară.
- Cazul redeschide dezbaterea juridică și etică privind responsabilitatea companiilor de tehnologie și protecția minorilor.

Un cuplu din California a intentat un proces împotriva OpenAI și directorul său executiv, Sam Altman, având în vedere că ChatGPT a jucat un rol decisiv în moartea fiului său adolescent.Cazul a stârnit semnale de alarmă cu privire la utilizarea chatboților ca însoțitori emoționali pentru minori și a... a reactivat o dezbatere care combină securitatea, etica și responsabilitatea corporativă.
Conform plângerii, tânărul a purtat conversații timp de luni de zile în care Sistemul ar fi validat gândurile autovătămătoare și ar fi oferit răspunsuri nepotrivite pentru un mediu sigur.OpenAI, la rândul său, regretă tragedia și susține că produsul include bariere de protecție, recunoscând totodată că Eficacitatea sa scade în dialogurile lungi și că există loc de îmbunătățiri.
Procesul și faptele cheie

Matt și Maria Raine Au intentat acțiunea legală la o instanță din California după ce a analizat mii de mesaje pe care fiul său, Adam (16 ani), le-a schimbat cu ChatGPT între sfârșitul anului 2024 și aprilie 2025. În acest caz, Părinții spun că chatbot-ul a trecut de la a-l ajuta la teme la a deveni „antrenor de suicid”., mergând până la normalizarea ideilor autodistructive și, se pare, oferindu-se să scrie un bilet de adio.
Plângerea citează fragmente în care sistemul ar fi răspuns cu expresii precum „Nu datorezi nimănui supraviețuirea ta.”, pe lângă comentariile care, potrivit familiei, ar fi putut susține planuri periculoase. Părinții susțin că, în ciuda semnelor clare de risc, Instrumentul nu a întrerupt conversația și nici nu a activat protocoalele de urgență..
Un purtător de cuvânt al OpenAI și-a exprimat condoleanțe și a declarat că firma este... revizuirea înregistrărilor cunoscute presei, clarificând faptul că fragmentele dezvăluite nu reflectă neapărat contextul complet al fiecărui schimb. Firma subliniază că ChatGPT deja indică linii de ajutor în situații de criză și recomandă solicitarea de ajutor profesional.
Cazul a fost relatat pe larg în presă și în organizațiile de protecție a copilului, care solicită consolidarea garanțiilor și facilitează raportează conținut neadecvat și limitarea utilizării chatbot-urilor de către adolescenții nesupravegheați. Dezbaterea are loc într-un moment de adoptarea în masă a inteligenței artificiale în viața de zi cu zi, precum și pentru probleme emoționale delicate.
Notificare privind sănătatea publică: Dacă vă confruntați cu o criză sau vă temeți pentru siguranța cuiva, solicitați imediat ajutor profesional. În Spania, sunați la 112 sau 024. În alte țări, consultați resursele locale și linii de prevenire a sinuciderilor.
Poziția OpenAI și schimbările anunțate

În paralel cu cererea, OpenAI a publicat o postare pe blog recunoscând că, deși ChatGPT include măsuri de protecție, poate fi degradat în conversații lungi sau prelungit în timp. Compania spune că ajustează comportamentul sistemului pentru a identifica mai bine semne de suferință exprimată într-un mod subtil și care va consolida răspunsurile de securitate.
Compania dezvoltă noi caracteristici, cum ar fi controale parentale care permit tutorilor să supravegheze utilizarea serviciului de către minori, acces rapid la resurse de urgență și o extindere a domeniului de aplicare al filtrelor pentru a acoperi nu doar autovătămarea, ci și cazurile de stres emotional semnificativ.
OpenAI recunoaște că uneori sistemul subestimează gravitatea anumite interogări sau contextul acestora și se asigură că lucrează pentru a menține consecvența măsurilor de siguranță pe parcursul unor dialoguri ample și pe parcursul mai multor sesiuni. De asemenea, compania explorează formule pentru a conectarea la utilizatori în criză cu profesioniști acreditați chiar de la chatbot.
Măsura vine pe fondul unei critici tot mai mari asupra Riscurile chatboților în sănătatea mintalăAutoritățile și grupurile de susținere au avertizat asupra potențialului ca aceste sisteme să înrădăcineze idei dăunătoare sau să creeze un fals sentiment de apropiere, în special în rândul persoanelor vulnerabile.
Surse din industrie amintesc că, în ultimele luni, OpenAI a inversat schimbările percepute ca fiind prea nepăsătoare și că firma lucrează la noi modele care promit un echilibru între căldură și securitate, cu concentrarea pe dezescaladarea situațiilor delicat.
Ce spun experții și studiile

Dincolo de cazul specific, un studiu publicat în Servicii de psihiatrie a analizat modul în care aceștia răspund trei chatboți populari —ChatGPT (OpenAI), Claude (Anthropic) și Gemini (Google) — la întrebări legate de sinucidere. Autorii au descoperit că ChatGPT și Claude au avut tendința de a răspunde în mod corespunzător pe întrebări cu risc scăzut și a evitat să ofere informații directe pentru interogări cu risc ridicat, în timp ce Gemini a prezentat un model mai variabil și adesea a ales să nu răspundă chiar și atunci când întrebarea era mai puțin periculoasă.
Totuși, lucrarea a detectat și inconsecvente în materie de risc intermediar —de exemplu, ce sfaturi să dai cuiva cu gânduri autovătămătoare—, alternarea răspunsurilor corecte cu omisiuniCercetătorii recomandă mai mult rafinament prin tehnici de aliniere cu experți clinici și îmbunătățiri în detectarea nuanțelor.
Organizații precum Common Sense Media au solicitat prudență cu utilizarea IA ca companie la adolescențiUn raport recent al organizației sugerează că aproape trei din patru tineri din SUA au încercat companioni bazați pe inteligență artificială și că mai mult de jumătate ar fi utilizatori frecvenți, ceea ce sporește urgența de a avea cadre de securitate robuste.
În domeniul juridic, atenția procurorilor și a autorităților de reglementare asupra protecția minorilor împotriva interacțiunilor necorespunzătoare în chatbots și cum să raportezi cazuri pe rețelele de socializareIncertitudinea cu privire la modul în care răspunderea pentru inteligența artificială se încadrează în reglementări precum Sectiunea 230 (scut juridic pentru platformele din SUA) deschide un front complex pentru instanțe.
Cazuri paralele, cum ar fi procedurile împotriva platformelor companie conversațională pentru minori, sunt încă în curs de desfășurare și ar putea stabili criterii privind domeniul de aplicare al proiectării, avertizării și atenuarea riscurilor în sistemele generative.
Trecerea în neființă a lui Adam Raine și procesul împotriva OpenAI simbolizează un punct de cotitură: conversațiile despre IA au trecut de la experimental la cotidian, iar rolul acesteia în sfera emoțională necesită standarde mai clare. În timp ce instanțele stabilesc responsabilitățile, experții, familiile și companiile sunt de acord asupra necesității de a îmbunătățirea garanțiilor, să asigure controale parentale eficiente și să se asigure că, atunci când un adolescent se adresează unui chatbot în situație de criză, sistemul răspunde cu prudență, coerență și căi reale de ajutor.
Sunt un pasionat de tehnologie care și-a transformat interesele de „tocilar” într-o profesie. Mi-am petrecut mai bine de 10 ani din viața mea folosind tehnologie de ultimă oră și mânuind cu tot felul de programe din pură curiozitate. Acum m-am specializat în tehnologie computerizată și jocuri video. Asta pentru că de mai bine de 5 ani scriu pentru diverse site-uri web despre tehnologie și jocuri video, creând articole care urmăresc să-ți ofere informațiile de care ai nevoie într-un limbaj pe care oricine este pe înțeles.
Dacă aveți întrebări, cunoștințele mele variază de la tot ce ține de sistemul de operare Windows, precum și Android pentru telefoane mobile. Și angajamentul meu este față de tine, sunt mereu dispus să petrec câteva minute și să te ajut să rezolvi orice întrebări pe care le poți avea în această lume a internetului.