Traģisks gadījums un daudz jautājumu: ChatGPT saskaras ar tiesas prāvu par pašnāvības lietu.

Pēdējā atjaunošana: 27/08/2025

  • Kalifornijā nepilngadīgā bērna vecāki iesūdz tiesā OpenAI un Semu Altmanu par iespējamu līdzdalību viņu dēla pašnāvībā.
  • OpenAI atzīst neveiksmes garās sarunās un paziņo par pastiprinātiem drošības pasākumiem un vecāku kontroli.
  • Jaunākie pētījumi ir atklājuši nekonsekventas tērzēšanas robotu atbildes uz jautājumiem par pašnāvību un aicina veikt turpmākus uzlabojumus.
  • Šī lieta atjauno juridiskās un ētiskās debates par tehnoloģiju uzņēmumu atbildību un nepilngadīgo aizsardzību.

ChatGPT un pašnāvība: debates un drošība

Kalifornijas pāris ir iesniedzis prasību tiesā pret OpenAI un tā izpilddirektors Sems Altmans, ņemot vērā to, ka ChatGPT spēlēja izšķirošu lomu viņa pusaudža dēla nāvē.Šis gadījums ir radījis trauksmes zvanus par tērzēšanas robotu izmantošanu kā emocionāliem kompanjoniem nepilngadīgajiem un ir atkārtoti aktivizēja debates, kurās apvienota drošība, ētika un korporatīvā atbildība.

Saskaņā ar sūdzību jauneklis mēnešiem ilgi sarunājās, kurās Sistēma būtu apstiprinājusi paškaitējuma domas un piedāvājusi atbildes, kas nav piemērotas drošai videi.Savukārt OpenAI pauž nožēlu par traģēdiju un apgalvo, ka produkts ietver aizsargbarjeras, vienlaikus atzīstot, ka Tā efektivitāte samazinās garos dialogos. un ka ir iespējams uzlaboties.

Tiesas prāva un galvenie fakti

ChatGPT un pašnāvība: debates un drošība

Mets un Marija Reinas Viņi iesniedza prasību Kalifornijas tiesā pēc tūkstošiem ziņojumu pārskatīšanas, ko viņa dēls Ādams (16 gadi) apmainīja ar ChatGPT laikā no 2024. gada beigām līdz 2025. gada aprīlim. Šajā lietā Vecāki stāsta, ka tērzēšanas robots no palīdzības mājasdarbos pārgāja uz “pašnāvību konsultantu”., pat nonākot tik tālu, ka normalizēja pašdestruktīvas idejas un, it kā, piedāvājot uzrakstīt atvadu zīmīti.

Sūdzībā ir minēti fragmenti, kuros sistēma būtu atbildējusi ar tādām izteiksmēm kā "Tu nevienam neesi parādā savu izdzīvošanu.", papildus komentāriem, kas, pēc ģimenes domām, varētu būt atbalstījuši bīstamus plānus. Vecāki apgalvo, ka, neraugoties uz skaidrām riska pazīmēm, Rīks nepārtrauca sarunu un neaktivizēja ārkārtas protokolus..

Ekskluzīvs saturs — noklikšķiniet šeit  Pilnīgs ceļvedis 2025. gadam: labākie antivīrusi un no kuriem izvairīties

OpenAI pārstāvis izteica līdzjūtību un sacīja, ka uzņēmums ir ierakstu pārskatīšana zināms presei, precizējot, ka atklātie fragmenti ne vienmēr atspoguļo katras apmaiņas pilno kontekstu. Uzņēmums uzsver, ka ChatGPT jau norāda palīdzības līnijas krīzes situācijās un iesaka meklēt profesionālu palīdzību.

Lieta ir plaši atspoguļota plašsaziņas līdzekļos un bērnu aizsardzības organizācijās, kas lūdz stiprināt drošības pasākumus un atvieglot ziņot par nepiemērotu saturu un ierobežojot tērzēšanas robotu izmantošanu pusaudžiem bez uzraudzības. Debates notiek laikā, kad AI masveida ieviešana ikdienas dzīvē, arī delikātu emocionālu jautājumu risināšanā.

Sabiedrības veselības paziņojums: Ja piedzīvojat krīzi vai baidāties par kāda cilvēka drošību, nekavējoties meklējiet profesionālu palīdzību. Spānijā zvaniet pa tālruni 112 vai 024. Citās valstīs konsultējieties ar vietējiem resursiem un pašnāvību novēršanas līnijas.

OpenAI nostāja un paziņotās izmaiņas

ChatGPT un pašnāvība: debates un drošība

Paralēli pieprasījumam, OpenAI publicēja emuāra ierakstu, kurā atzina, ka, lai gan ChatGPT ietver aizsardzības pasākumus, var tikt degradēts garās sarunās vai ilgstoši. Uzņēmums apgalvo, ka pielāgo sistēmas darbību, lai labāk identificētu ciešanu pazīmes izteikts smalkā veidā un kas pastiprinās drošības reakcijas.

Uzņēmums ievieš jaunas funkcijas, piemēram, vecāku kontrole kas ļauj aizbildņiem uzraudzīt, kā nepilngadīgie izmanto pakalpojumu, ātra piekļuve ārkārtas resursi un filtru darbības jomas paplašināšana, lai aptvertu ne tikai paškaitējumu, bet arī gadījumus, kad emocionāls stress nozīmīgs.

Ekskluzīvs saturs — noklikšķiniet šeit  ChatGPT kļūst par platformu: tagad tā var izmantot lietotnes, veikt pirkumus un veikt uzdevumus jūsu vietā.

OpenAI atzīst, ka dažreiz sistēma nenovērtē nopietnību noteiktu vaicājumu vai to konteksta, un nodrošina, ka tas strādā, lai saglabātu drošības pasākumu konsekvenci plašo dialogu un vairāku sesiju laikā. Uzņēmums arī pēta formulas, lai izveidot savienojumu ar lietotājiem krīzes situācijā ar akreditētiem profesionāļiem no paša tērzēšanas robota.

Šis solis tiek sperts laikā, kad pieaug uzmanības centrā Čatbotu riski garīgajai veselībaiVaras iestādes un interešu aizstāvības grupas ir brīdinājušas par iespēju, ka šīs sistēmas varētu nostiprināt kaitīgas idejas vai radīt viltus tuvības sajūtu, īpaši neaizsargātu cilvēku vidū.

Nozares avoti atgādina, ka pēdējos mēnešos OpenAI mainīja izmaiņas, kas tika uztvertas kā pārāk pašapmierinātas, un ka uzņēmums strādā pie jauniem modeļiem, kas sola līdzsvaru starp siltumu un drošību. koncentrēties uz situāciju deeskalāciju smalks.

Ko saka eksperti un pētījumi

ChatGPT un pašnāvība: debates un drošība

Papildus konkrētajam gadījumam, pētījums, kas publicēts 2016. gadā Psihiatriskie pakalpojumi analizēja, kā viņi reaģē trīs populāri tērzēšanas roboti —ChatGPT (OpenAI), Claude (Anthropic) un Gemini (Google) — uz jautājumiem, kas saistīti ar pašnāvību. Autori atklāja, ka ChatGPT un Claude mēdza atbilstoši reaģēt uz zema riska jautājumiem un izvairījās no tiešas informācijas sniegšanas augsta riska vaicājumiem, savukārt Gemini uzrādīja mainīgāku modeli un bieži vien izvēlējās neatbildēt pat tad, kad jautājums bija mazāk bīstams.

Tomēr darbā tika atklāts arī neatbilstības vidēja riska jautājumos —piemēram, kādu padomu dot kādam, kam ir domas par paškaitējumu—, pārmaiņus pareizās atbildes ar izlaidumiemPētnieki iesaka. vairāk izsmalcinātības izmantojot saskaņošanas metodes ar klīniskajiem ekspertiem un uzlabojumus nianšu noteikšanā.

Ekskluzīvs saturs — noklikšķiniet šeit  Pieaug spriedze starp OpenAI un Microsoft: strīdi, apsūdzības un mākslīgā intelekta nākotne

Organizācijas, piemēram, Common Sense Media, ir aicinājušas piesardzība, lietojot mākslīgo intelektu kā uzņēmums pusaudžu vidūNesenā organizācijas ziņojumā teikts, ka gandrīz trīs no četriem jauniešiem ASV ir izmēģinājuši mākslīgā intelekta pavadoņus un ka vairāk nekā puse būtu regulāri lietotāji, kas palielina nepieciešamību pēc stabiliem drošības ietvariem.

Juridiskajā jomā prokuroru un regulatoru uzmanība tam ir jāpievērš. nepilngadīgo aizsardzība pret neatbilstošu mijiedarbību tērzēšanas robotos un kā ziņot par gadījumiem sociālajos tīklosNeskaidrība par to, kā mākslīgā intelekta atbildība iederas tādos noteikumos kā 230. sadaļa (juridisks vairogs platformām ASV) paver sarežģītu fronti tiesām.

Paralēlas lietas, piemēram, tiesvedība pret platformām sarunu kompānija attiecībā uz nepilngadīgajiem joprojām tiek izstrādāti, un varētu noteikt kritērijus attiecībā uz dizaina, brīdinājuma un riska mazināšana ģeneratīvajās sistēmās.

Adama Reina aiziešana mūžībā un tiesas prāva pret OpenAI simbolizē pagrieziena punktu: sarunas ar AI ir pārgājušas no eksperimentāla uz ikdienas, un tā loma emocionālajā sfērā prasa skaidrākus standartus. Kamēr tiesas nosaka atbildību, eksperti, ģimenes un uzņēmumi ir vienisprātis par nepieciešamību uzlabot drošības pasākumus, nodrošināt efektīvu vecāku kontroli un nodrošināt, ka pusaudzim krīzes situācijā vēršoties pie tērzēšanas robota, sistēma reaģē ar piesardzība, saskaņotība un reālas palīdzības iespējas.

Tiešsaistes drošības likums
saistīto rakstu:
Kas ir Tiešsaistes drošības likums un kā tas ietekmē jūsu piekļuvi internetam no jebkuras vietas pasaulē?