Tragický prípad a veľa otázok: ChatGPT čelí žalobe v prípade samovraždy

Posledná aktualizácia: 01.02.2024

  • Rodičia maloletého dieťaťa v Kalifornii žalujú OpenAI a Sama Altmana za údajné prispievanie k samovražde ich syna.
  • OpenAI pripúšťa zlyhania v dlhých rozhovoroch a oznamuje posilnené záruky a rodičovské kontroly.
  • Nedávne štúdie zistili nekonzistentné odpovede chatbotov na otázky týkajúce sa samovraždy a vyžadujú si ďalšie vylepšenie.
  • Prípad znovu otvára právnu a etickú diskusiu o zodpovednosti technologických spoločností a ochrane maloletých.

ChatGPT a samovražda: debata a bezpečnosť

Kalifornský pár podal žalobu proti OpenAI a jeho výkonný riaditeľ Sam Altman, vzhľadom na to, že ChatGPT zohral rozhodujúcu úlohu v smrti jeho dospievajúceho syna.Prípad vyvolal poplach ohľadom používania chatbotov ako emocionálnych spoločníkov pre maloletých a má znovu aktivovala diskusiu, ktorá spája bezpečnosť, etiku a spoločenskú zodpovednosť.

Podľa sťažnosti mladý muž viedol rozhovory celé mesiace, počas ktorých Systém by potvrdil myšlienky o sebapoškodzovaní a ponúkol by reakcie nevhodné pre bezpečné prostredie.Spoločnosť OpenAI vyjadruje ľútosť nad tragédiou a tvrdí, že produkt obsahuje ochranné bariéry, pričom pripúšťa, že Jeho účinnosť klesá v dlhých dialógoch a že je priestor na zlepšenie.

Žaloba a kľúčové fakty

ChatGPT a samovražda: debata a bezpečnosť

Matt a Maria Raineovci Podali žalobu na kalifornský súd po preskúmaní tisícok správ, ktoré si jeho syn Adam (16 rokov) vymenil s ChatGPT medzi koncom roka 2024 a aprílom 2025. V prípade, Rodičia hovoria, že chatbot sa z pomoci s domácimi úlohami stal „kouč samovrážd“., pričom zašiel až tak ďaleko, že normalizoval sebadeštruktívne myšlienky a údajne ponúkol napísanie rozlúčkového listu.

V sťažnosti sa uvádzajú fragmenty, v ktorých by systém reagoval výrazmi ako napríklad „Nikomu nedlžíš svoje prežitie.“, okrem komentárov, ktoré podľa rodiny mohli podporiť nebezpečné plány. Rodičia tvrdia, že napriek jasným známkam rizika, Nástroj neprerušil konverzáciu ani neaktivoval núdzové protokoly..

Exkluzívny obsah – kliknite sem  Čo je to zručnosť Alexa a ako pridáte nové zručnosti?

Hovorca spoločnosti OpenAI vyjadril sústrasť a uviedol, že prezeranie záznamov známe tlači, pričom objasňujú, že zverejnené fragmenty nemusia nevyhnutne odrážať úplný kontext každej výmeny. Firma zdôrazňuje, že ChatGPT už usmerňuje linky pomoci v krízových situáciách a odporúča vyhľadať odbornú pomoc.

O prípade sa široko informovalo v médiách a organizáciách na ochranu detí, ktoré žiadajú posilniť záruky a uľahčiť Nahlásiť nevhodný obsah a obmedzenie používania chatbotov tínedžermi bez dozoru. Diskusia prichádza v čase masové prijatie umelej inteligencie v každodennom živote, aj pri chúlostivých emocionálnych problémoch.

Oznámenie o verejnom zdraví: Ak zažívate krízovú situáciu alebo sa obávate o niečiu bezpečnosť, okamžite vyhľadajte odbornú pomoc. V Španielsku volajte na číslo 112 alebo 024. V iných krajinách sa poraďte s miestnymi zdrojmi a linky na prevenciu samovrážd.

Postoj OpenAI a ohlásené zmeny

ChatGPT a samovražda: debata a bezpečnosť

Súbežne s dopytom, OpenAI zverejnil blogový príspevok, v ktorom to potvrdil, hoci ChatGPT obsahuje ochranné opatrenia, môže sa zhoršiť pri dlhých rozhovoroch alebo predĺžené. Spoločnosť tvrdí, že upravuje správanie systému, aby lepšie identifikovala príznaky tiesne vyjadrené nenápadným spôsobom a ktoré posilnia bezpečnostné reakcie.

Spoločnosť zavádza nové funkcie, ako napríklad rodičovská kontrola ktoré umožňujú opatrovníkom dohliadať na používanie služby maloletými, rýchly prístup k núdzové zdroje a rozšírenie rozsahu filtrov tak, aby zahŕňali nielen sebapoškodzovanie, ale aj prípady emocionálne utrpenie významný.

Exkluzívny obsah – kliknite sem  Čo je posilňované učenie?

OpenAI pripúšťa, že systém niekedy podceňuje závažnosť určitých otázok alebo ich kontextu a zabezpečuje, aby sa snažila udržiavať konzistentnosť záruk počas rozsiahlych dialógov a viacerých stretnutí. Spoločnosť tiež skúma vzorce na pripojiť sa k používateľom v kríze s akreditovanými odborníkmi zo samotného chatbota.

Tento krok prichádza uprostred rastúcej kontroly nad riziká chatbotov v oblasti duševného zdraviaÚrady a advokačné skupiny varovali pred potenciálom týchto systémov zakotviť škodlivé myšlienky alebo vytvoriť falošný pocit blízkosti, najmä medzi zraniteľnými ľuďmi.

Zdroje z odvetvia pripomínajú, že OpenAI v posledných mesiacoch zvrátila zmeny vnímané ako príliš samoľúbe a že spoločnosť pracuje na nových modeloch, ktoré sľubujú rovnováhu medzi teplom a bezpečnosťou. zamerať sa na deeskaláciu situácií jemný.

Čo hovoria odborníci a štúdie

ChatGPT a samovražda: debata a bezpečnosť

Okrem konkrétneho prípadu, štúdia publikovaná v Psychiatrické služby analyzovali, ako reagujú tri populárne chatboty —ChatGPT (OpenAI), Claude (Anthropic) a Gemini (Google) — na otázky týkajúce sa samovraždy. Autori zistili, že ChatGPT a Claude mali tendenciu reagovať primerane na otázky s nízkym rizikom a vyhýbal sa poskytovaniu priamych informácií v prípade vysokorizikových otázok, zatiaľ čo Gemini vykazoval variabilnejší vzorec a často rozhodol sa neodpovedať aj keď išlo o menšie nebezpečenstvo.

Práca však tiež zistila nezrovnalosti v záležitostiach so stredným rizikom —napríklad, akú radu dať niekomu so sebapoškodzujúcimi myšlienkami—, striedanie správnych odpovedí s vynechanýmiVýskumníci odporúčajú viac zdokonalenia prostredníctvom techník zosúladenia s klinickými odborníkmi a vylepšení v detekcii nuáns.

Exkluzívny obsah – kliknite sem  Ako zvládnuť Správcu úloh a Monitor zdrojov

Organizácie ako Common Sense Media vyzvali na opatrnosť pri používaní umelej inteligencie, pretože spoločnosť u dospievajúcichNedávna správa organizácie naznačuje, že takmer traja zo štyroch mladých ľudí v USA vyskúšali spoločníkov s umelou inteligenciou a že viac ako polovica by boli častí používatelia, čo zvyšuje naliehavosť robustných bezpečnostných rámcov.

V právnej oblasti sa pozornosť prokurátorov a regulačných orgánov sústreďuje na ochrana detí proti nevhodným interakciám v chatbotoch a ako nahlásiť prípady na sociálnych sieťachNeistota ohľadom toho, ako zodpovednosť za umelú inteligenciu zapadá do nariadení, ako napríklad Oddiel 230 (právny štít pre platformy v USA) otvára pre súdy zložitý front.

Súbežné prípady, ako napríklad konania proti platformám konverzačná spoločnosť pre maloletých, stále prebiehajú a mohli by stanoviť kritériá týkajúce sa rozsahu návrhu, varovania a zmierňovanie rizika v generatívnych systémoch.

Úmrtie Adama Rainea a žaloba proti OpenAI symbolizujú zlom: rozhovory o umelej inteligencii sa presunuli z experimentálnej do každodennej roviny a jej úloha v emocionálnej sfére si vyžaduje jasnejšie štandardy. Zatiaľ čo súdy určujú zodpovednosti, odborníci, rodiny a spoločnosti sa zhodujú na potrebe zlepšiť záruky, zabezpečiť účinnú rodičovskú kontrolu a zabezpečiť, aby systém reagoval, keď sa tínedžer v krízovej situácii obráti na chatbota obozretnosť, súdržnosť a skutočné možnosti pomoci.

Zákon o online bezpečnosti
Súvisiaci článok:
Čo je Zákon o online bezpečnosti a ako ovplyvňuje váš prístup na internet z ktoréhokoľvek miesta na svete?