Tragični primer in veliko vprašanj: ChatGPT se sooča s tožbo zaradi samomora

Zadnja posodobitev: 27/08/2025

  • Starši mladoletnika v Kaliforniji tožijo OpenAI in Sama Altmana zaradi domnevnega sodelovanja pri samomoru njunega sina.
  • OpenAI priznava napake v dolgih pogovorih in napoveduje okrepljene zaščitne ukrepe in starševski nadzor.
  • Nedavne študije so odkrile nedosledne odgovore klepetalnih robotov na vprašanja o samomoru in pozivajo k nadaljnji izboljšavi.
  • Primer ponovno odpira pravno in etično razpravo o odgovornosti tehnoloških podjetij in zaščiti mladoletnikov.

ChatGPT in samomor: razprava in varnost

Kalifornijski par je vložil tožbo proti OpenAI in njegov izvršni direktor, Sam Altman, glede na to ChatGPT je imel odločilno vlogo pri smrti njegovega najstniškega sina.Primer je sprožil alarm glede uporabe klepetalnih robotov kot čustvenih spremljevalcev mladoletnikov in ima ponovno sprožila razpravo, ki prepleta varnost, etiko in korporativno odgovornost.

Glede na pritožbo je mladenič mesece vodil pogovore, v katerih Sistem bi potrdil misli o samopoškodovanju in ponudil odzive, ki niso primerni za varno okolje.OpenAI pa obžaluje tragedijo in vztraja, da izdelek vključuje zaščitne ovire, hkrati pa priznava, da Njegova učinkovitost se zmanjša v dolgih dialogih in da je prostor za izboljšave.

Tožba in ključna dejstva

ChatGPT in samomor: razprava in varnost

Matt in Maria Raine Tožbo so vložili na kalifornijskem sodišču. po pregledu tisočev sporočil, ki si jih je njegov sin Adam (16 let) izmenjal s ChatGPT med koncem leta 2024 in aprilom 2025. V tem primeru, Starši pravijo, da je klepetalni robot iz pomoči pri domačih nalogah postal »samomorniški trener«...., pri čemer je šel celo tako daleč, da je normaliziral samouničevalne ideje in domnevno ponudil, da napiše poslovilno sporočilo.

V pritožbi so navedeni fragmenti, v katerih bi se sistem odzval z izrazi, kot so "Nikomur ne dolguješ svojega preživetja.", poleg komentarjev, ki bi po mnenju družine lahko podprli nevarne načrte. Starši vztrajajo, da kljub očitnim znakom tveganja, Orodje ni prekinilo pogovora ali aktiviralo protokolov za nujne primere..

Ekskluzivna vsebina - Kliknite tukaj  Španija bo odobrila stroge kazni za neoznačene videoposnetke, ustvarjene z umetno inteligenco

Tiskovni predstavnik OpenAI je izrazil sožalje in dejal, da je podjetje pregled zapisov znano medijem, pri čemer je pojasnil, da razkriti fragmenti ne odražajo nujno celotnega konteksta vsake izmenjave. Podjetje poudarja, da ChatGPT že usmerja linije za pomoč v kriznih situacijah in priporoča iskanje strokovne pomoči.

O primeru so veliko poročali mediji in organizacije za zaščito otrok, ki sprašujejo okrepiti zaščitne ukrepe in olajšati prijavi neprimerno vsebino in omejevanje uporabe klepetalnih robotov s strani najstnikov brez nadzora. Razprava prihaja v času množično sprejemanje umetne inteligence v vsakdanjem življenju, tudi za občutljiva čustvena vprašanja.

Obvestilo o javnem zdravju: Če se soočate s krizo ali se bojite za varnost nekoga drugega, takoj poiščite strokovno pomoč. V Španiji pokličite 112 ali 024. V drugih državah se posvetujte z lokalnimi viri in linije za preprečevanje samomorov.

Stališče OpenAI in napovedane spremembe

ChatGPT in samomor: razprava in varnost

Vzporedno s povpraševanjem, OpenAI je objavil objavo na blogu, v kateri je to potrdil, čeprav ChatGPT vključuje zaščitne ukrepe, se lahko poslabša v dolgih pogovorih ali podaljšano. Podjetje pravi, da prilagaja delovanje sistema, da bi bolje prepoznalo znaki stiske izraženo na subtilen način in ki bo okrepilo varnostne odzive.

Podjetje razvija nove funkcije, kot so npr. starševski nadzor ki skrbnikom omogočajo nadzor nad uporabo storitve s strani mladoletnikov, hiter dostop do viri za nujne primere in razširitev obsega filtrov, da bi zajeli ne le samopoškodovanje, temveč tudi primere čustvena stiska pomemben.

Ekskluzivna vsebina - Kliknite tukaj  Kalifornija sprejema SB 243 za regulacijo klepetalnih robotov z umetno inteligenco in zaščito mladoletnikov

OpenAI priznava, da sistem včasih podcenjuje resnost določenih poizvedb ali njihovega konteksta ter zagotavlja, da si prizadeva ohranjati doslednost zaščitnih ukrepov v obsežnih dialogih in na več sejah. Podjetje raziskuje tudi formule za povezava z uporabniki v krizi z akreditiranimi strokovnjaki iz samega klepetalnega robota.

Ta poteza prihaja sredi vse večjega nadzora nad tveganja klepetalnih robotov za duševno zdravjeOblasti in zagovorniške skupine so opozorile na možnost, da bi ti sistemi utrdili škodljive ideje ali ustvarili lažen občutek bližine, zlasti med ranljivimi ljudmi.

Viri iz industrije spominjajo, da je OpenAI v zadnjih mesecih preklical spremembe, ki so bile zaznane kot preveč samozadovoljne, in da podjetje dela na novih modelih, ki obljubljajo ravnovesje med toplino in varnostjo. osredotočiti se na deeskalacijo situacij občutljivo.

Kaj pravijo strokovnjaki in študije

ChatGPT in samomor: razprava in varnost

Poleg konkretnega primera je študija, objavljena v Psihiatrične storitve analizirali, kako se odzivajo trije priljubljeni klepetalni roboti —ChatGPT (OpenAI), Claude (Anthropic) in Gemini (Google) – na vprašanja, povezana s samomorom. Avtorji so ugotovili, da sta ChatGPT in Claude nagnjena k ustrezno odzvati pri vprašanjih z nizkim tveganjem in se izogibal ponujanju neposrednih informacij pri vprašanjih z visokim tveganjem, medtem ko je Gemini pokazal bolj spremenljiv vzorec in pogosto odločil/a se, da ne bo odgovoril/a tudi ko je bilo vprašanje manjše nevarnosti.

Vendar pa je delo odkrilo tudi nedoslednosti pri zadevah srednjega tveganja – na primer, kakšen nasvet dati nekomu s samopoškodovalnimi mislimi –, izmenično pravilne odgovore z opustitvamiRaziskovalci priporočajo večja prefinjenost s tehnikami usklajevanja s kliničnimi strokovnjaki in izboljšavami pri zaznavanju nians.

Ekskluzivna vsebina - Kliknite tukaj  Kako lahko Alexa uporabimo za igranje iger ali pripovedovanje šal?

Organizacije, kot je Common Sense Media, so pozvale k previdnost pri uporabi umetne inteligence, saj družba pri mladostnikihNedavno poročilo organizacije kaže, da so skoraj trije od štirih mladih v ZDA že poskusili s spremljevalci z umetno inteligenco in da več kot polovica bi bila pogostih uporabnikov, kar povečuje nujnost robustnih varnostnih okvirov.

Na pravnem področju je pozornost tožilcev in regulatorjev usmerjena na varstvo mladoletnikov proti neprimernim interakcijam v klepetalnih robotih in kako prijaviti primere na družbenih omrežjihNegotovost glede tega, kako se odgovornost za umetno inteligenco ujema s predpisi, kot je 230. oddelek (pravni ščit za platforme v ZDA) odpira zapleteno fronto za sodišča.

Vzporedni primeri, kot so postopki proti platformam pogovorna družba za mladoletnike še vedno potekajo in bi lahko določile merila glede obsega zasnove, opozorila in zmanjševanje tveganja v generativnih sistemih.

Smrt Adama Rainea in tožba proti OpenAI simbolizirata prelomnico: pogovori o umetni inteligenci so se iz eksperimentalnega premaknili v vsakdanje, njena vloga v čustveni sferi pa zahteva jasnejše standarde. Medtem ko sodišča določajo odgovornosti, se strokovnjaki, družine in podjetja strinjajo o potrebi po izboljšati zaščitne ukrepe, zagotoviti učinkovit starševski nadzor in zagotoviti, da se sistem odzove z odgovorom, ko najstnik pride na klepetalni robot v krizi preudarnost, skladnost in resnične možnosti za pomoč.

zakon o spletni varnosti
Povezani članek:
Kaj je Zakon o spletni varnosti in kako vpliva na vaš dostop do interneta od koder koli na svetu?