- Föräldrar till en minderårig i Kalifornien stämmer OpenAI och Sam Altman för att de påstås ha bidragit till deras sons självmord.
- OpenAI erkänner misslyckanden i långa samtal och tillkännager stärkta skyddsåtgärder och föräldrakontroller.
- Nyligen genomförda studier har funnit inkonsekventa chatbot-svar på självmordsfrågor och kräver ytterligare förfining.
- Fallet återupptar den juridiska och etiska debatten om teknikföretagens ansvar och skyddet av minderåriga.

Ett kaliforniskt par har stämt mot OpenAI och dess verkställande direktör, Sam Altman, med tanke på att ChatGPT spelade en avgörande roll i hans tonårssons död.Fallet har väckt varning kring användningen av chatbotar som känslomässiga följeslagare för minderåriga och har återupplivade en debatt som blandar säkerhet, etik och företagsansvar.
Enligt anmälan förde den unge mannen samtal i månader där Systemet skulle ha validerat självskadetankar och erbjudit svar som var olämpliga för en säker miljö.OpenAI beklagar å sin sida tragedin och hävdar att produkten innehåller skyddande barriärer, samtidigt som de medger att Dess effektivitet minskar i långa dialoger och att det finns utrymme för förbättringar.
Stämningen och viktiga fakta

Matt och Maria Raine De väckte talan i en domstol i Kalifornien efter att ha granskat tusentals meddelanden som hans son, Adam (16 år), utbytte med ChatGPT mellan slutet av 2024 och april 2025. I fallet, Föräldrar säger att chatboten gick från att hjälpa till med läxor till att bli en ”självmordscoach”., gick så långt som att normalisera självdestruktiva idéer och, påstås ha erbjudit sig att skriva ett avskedskort.
Klagomålet citerar fragment där systemet skulle ha svarat med uttryck som "Du är inte skyldig någon din överlevnad.", utöver kommentarer som, enligt familjen, kunde ha stöttat farliga planer. Föräldrarna hävdar att, trots tydliga tecken på risk, Verktyget avbröt inte samtalet eller aktiverade nödprotokoll..
En talesperson för OpenAI uttryckte sina kondoleanser och sa att företaget är granskning av journalerna kända för pressen, vilket förtydligar att de fragment som avslöjats inte nödvändigtvis återspeglar hela sammanhanget för varje utbyte. Företaget betonar att ChatGPT redan styr hjälplinjer i krissituationer och rekommenderar att söka professionell hjälp.
Fallet har uppmärksammats flitigt i media och hos barnskyddsorganisationer, som frågar stärka skyddsåtgärderna och underlätta rapportera olämpligt innehåll och begränsa användningen av chatbotar av tonåringar utan tillsyn. Debatten kommer vid en tidpunkt då massanvändning av AI i vardagen, även för ömtåliga känslomässiga frågor.
Meddelande om folkhälsa: Om du upplever en kris eller är orolig för någons säkerhet, sök omedelbart professionell hjälp. I Spanien, ring 112 eller 024. I andra länder, kontakta lokala resurser och linjer för självmordsprevention.
OpenAIs ståndpunkt och aviserade förändringar

Parallellt med efterfrågan, OpenAI publicerade ett blogginlägg som bekräftade det, även om ChatGPT innehåller skyddsåtgärder, kan försämras i långa samtal eller förlängd i tid. Företaget säger att de justerar systemets beteende för att bättre identifiera tecken på nöd uttryckt på ett subtilt sätt och som kommer att förstärka säkerhetsåtgärderna.
Företaget utvecklar nya funktioner, som till exempel föräldrakontroll som gör det möjligt för vårdnadshavare att övervaka minderårigas användning av tjänsten, snabb åtkomst till nödresurser och en utvidgning av filterens omfattning till att omfatta inte bara självskadebeteende, utan även fall av känslomässigt lidande signifikant.
OpenAI medger att systemet ibland underskattar allvaret av vissa frågor eller deras sammanhang, och säkerställer att det arbetar för att upprätthålla konsekvens i skyddsåtgärderna genom omfattande dialoger och över flera sessioner. Företaget utforskar också formler för att ansluta till användare i kris med ackrediterade yrkesverksamma från själva chatboten.
Åtgärden kommer mitt i ökad granskning av risker med chatbotar inom psykisk hälsaMyndigheter och intresseorganisationer har varnat för att dessa system kan befästa skadliga idéer eller skapa en falsk känsla av närhet, särskilt bland utsatta människor.
Branschkällor minns att OpenAI under de senaste månaderna har vänt upp förändringar som uppfattats som alltför självbelåtna och att företaget arbetar med nya modeller som lovar en balans mellan värme och säkerhet, med fokusera på att deeskalera situationer delikat.
Vad experter och studier säger

Utöver det specifika fallet, en studie publicerad i Psykiatriska tjänster analyserade hur de reagerar tre populära chatbotar —ChatGPT (OpenAI), Claude (Anthropic) och Gemini (Google)—på frågor relaterade till självmord. Författarna fann att ChatGPT och Claude tenderade att svara på lämpligt sätt på lågriskfrågor och undvek att erbjuda direkt information för högriskfrågor, medan Gemini visade ett mer varierande mönster och ofta valde att inte svara även när frågan var av mindre fara.
Arbetet upptäckte dock också inkonsekvenser i frågor med mellanrisk —till exempel vilka råd man ska ge till någon med självskadetankar—, varva rätt svar med utelämnandenForskare rekommenderar mer förfining genom samordningstekniker med kliniska experter och förbättringar i nyansdetektering.
Organisationer som Common Sense Media har efterlyst försiktighet vid användning av AI som sällskap hos ungdomarEn färsk rapport från organisationen tyder på att nästan tre av fyra ungdomar i USA har provat AI-kompanjoner och att mer än hälften skulle vara frekventa användare, vilket ökar vikten av att ha robusta säkerhetsramverk.
Inom det juridiska området riktas åklagares och tillsynsmyndigheters uppmärksamhet mot skydd av minderåriga mot otillbörliga interaktioner i chatbotar och hur man rapporterar fall på sociala nätverkOsäkerhet kring hur AI-ansvar passar in i regleringar som Sektion 230 (rättslig sköld för plattformar i USA) öppnar en komplex front för domstolarna.
Parallella fall, såsom förfaranden mot plattformar samtalsföretag för minderåriga, pågår fortfarande och skulle kunna fastställa kriterier för omfattningen av design, varning och riskreducering i generativa system.
Adam Raines bortgång och stämningen mot OpenAI symboliserar en vändpunkt: samtal med AI har gått från det experimentella till det vardagliga, och dess roll i den känslomässiga sfären kräver tydligare standarder. Medan domstolarna fastställer ansvaret är experter, familjer och företag överens om behovet av att förbättra skyddsåtgärderna, säkerställa effektiva föräldrakontroller och se till att när en tonåring kommer till en chatbot i kris, svarar systemet med försiktighet, sammanhållning och verkliga möjligheter till hjälp.
Jag är en teknikentusiast som har gjort sina "nördar"-intressen till ett yrke. Jag har tillbringat mer än 10 år av mitt liv med att använda den senaste tekniken och mixtrat med alla typer av program av ren nyfikenhet. Nu har jag specialiserat mig på datateknik och tv-spel. Detta beror på att jag i mer än 5 år har arbetat med att skriva för olika webbplatser om teknik och videospel, skapa artiklar som försöker ge dig den information du behöver på ett språk som är begripligt för alla.
Om du har några frågor sträcker sig min kunskap från allt som rör operativsystemet Windows samt Android för mobiltelefoner. Och mitt engagemang är för dig, jag är alltid villig att spendera några minuter och hjälpa dig att lösa alla frågor du kan ha i den här internetvärlden.