- Kalifornijā nepilngadīgā bērna vecāki iesūdz tiesā OpenAI un Semu Altmanu par iespējamu līdzdalību viņu dēla pašnāvībā.
- OpenAI atzīst neveiksmes garās sarunās un paziņo par pastiprinātiem drošības pasākumiem un vecāku kontroli.
- Jaunākie pētījumi ir atklājuši nekonsekventas tērzēšanas robotu atbildes uz jautājumiem par pašnāvību un aicina veikt turpmākus uzlabojumus.
- Šī lieta atjauno juridiskās un ētiskās debates par tehnoloģiju uzņēmumu atbildību un nepilngadīgo aizsardzību.

Kalifornijas pāris ir iesniedzis prasību tiesā pret OpenAI un tā izpilddirektors Sems Altmans, ņemot vērā to, ka ChatGPT spēlēja izšķirošu lomu viņa pusaudža dēla nāvē.Šis gadījums ir radījis trauksmes zvanus par tērzēšanas robotu izmantošanu kā emocionāliem kompanjoniem nepilngadīgajiem un ir atkārtoti aktivizēja debates, kurās apvienota drošība, ētika un korporatīvā atbildība.
Saskaņā ar sūdzību jauneklis mēnešiem ilgi sarunājās, kurās Sistēma būtu apstiprinājusi paškaitējuma domas un piedāvājusi atbildes, kas nav piemērotas drošai videi.Savukārt OpenAI pauž nožēlu par traģēdiju un apgalvo, ka produkts ietver aizsargbarjeras, vienlaikus atzīstot, ka Tā efektivitāte samazinās garos dialogos. un ka ir iespējams uzlaboties.
Tiesas prāva un galvenie fakti

Mets un Marija Reinas Viņi iesniedza prasību Kalifornijas tiesā pēc tūkstošiem ziņojumu pārskatīšanas, ko viņa dēls Ādams (16 gadi) apmainīja ar ChatGPT laikā no 2024. gada beigām līdz 2025. gada aprīlim. Šajā lietā Vecāki stāsta, ka tērzēšanas robots no palīdzības mājasdarbos pārgāja uz “pašnāvību konsultantu”., pat nonākot tik tālu, ka normalizēja pašdestruktīvas idejas un, it kā, piedāvājot uzrakstīt atvadu zīmīti.
Sūdzībā ir minēti fragmenti, kuros sistēma būtu atbildējusi ar tādām izteiksmēm kā "Tu nevienam neesi parādā savu izdzīvošanu.", papildus komentāriem, kas, pēc ģimenes domām, varētu būt atbalstījuši bīstamus plānus. Vecāki apgalvo, ka, neraugoties uz skaidrām riska pazīmēm, Rīks nepārtrauca sarunu un neaktivizēja ārkārtas protokolus..
OpenAI pārstāvis izteica līdzjūtību un sacīja, ka uzņēmums ir ierakstu pārskatīšana zināms presei, precizējot, ka atklātie fragmenti ne vienmēr atspoguļo katras apmaiņas pilno kontekstu. Uzņēmums uzsver, ka ChatGPT jau norāda palīdzības līnijas krīzes situācijās un iesaka meklēt profesionālu palīdzību.
Lieta ir plaši atspoguļota plašsaziņas līdzekļos un bērnu aizsardzības organizācijās, kas lūdz stiprināt drošības pasākumus un atvieglot ziņot par nepiemērotu saturu un ierobežojot tērzēšanas robotu izmantošanu pusaudžiem bez uzraudzības. Debates notiek laikā, kad AI masveida ieviešana ikdienas dzīvē, arī delikātu emocionālu jautājumu risināšanā.
Sabiedrības veselības paziņojums: Ja piedzīvojat krīzi vai baidāties par kāda cilvēka drošību, nekavējoties meklējiet profesionālu palīdzību. Spānijā zvaniet pa tālruni 112 vai 024. Citās valstīs konsultējieties ar vietējiem resursiem un pašnāvību novēršanas līnijas.
OpenAI nostāja un paziņotās izmaiņas

Paralēli pieprasījumam, OpenAI publicēja emuāra ierakstu, kurā atzina, ka, lai gan ChatGPT ietver aizsardzības pasākumus, var tikt degradēts garās sarunās vai ilgstoši. Uzņēmums apgalvo, ka pielāgo sistēmas darbību, lai labāk identificētu ciešanu pazīmes izteikts smalkā veidā un kas pastiprinās drošības reakcijas.
Uzņēmums ievieš jaunas funkcijas, piemēram, vecāku kontrole kas ļauj aizbildņiem uzraudzīt, kā nepilngadīgie izmanto pakalpojumu, ātra piekļuve ārkārtas resursi un filtru darbības jomas paplašināšana, lai aptvertu ne tikai paškaitējumu, bet arī gadījumus, kad emocionāls stress nozīmīgs.
OpenAI atzīst, ka dažreiz sistēma nenovērtē nopietnību noteiktu vaicājumu vai to konteksta, un nodrošina, ka tas strādā, lai saglabātu drošības pasākumu konsekvenci plašo dialogu un vairāku sesiju laikā. Uzņēmums arī pēta formulas, lai izveidot savienojumu ar lietotājiem krīzes situācijā ar akreditētiem profesionāļiem no paša tērzēšanas robota.
Šis solis tiek sperts laikā, kad pieaug uzmanības centrā Čatbotu riski garīgajai veselībaiVaras iestādes un interešu aizstāvības grupas ir brīdinājušas par iespēju, ka šīs sistēmas varētu nostiprināt kaitīgas idejas vai radīt viltus tuvības sajūtu, īpaši neaizsargātu cilvēku vidū.
Nozares avoti atgādina, ka pēdējos mēnešos OpenAI mainīja izmaiņas, kas tika uztvertas kā pārāk pašapmierinātas, un ka uzņēmums strādā pie jauniem modeļiem, kas sola līdzsvaru starp siltumu un drošību. koncentrēties uz situāciju deeskalāciju smalks.
Ko saka eksperti un pētījumi

Papildus konkrētajam gadījumam, pētījums, kas publicēts 2016. gadā Psihiatriskie pakalpojumi analizēja, kā viņi reaģē trīs populāri tērzēšanas roboti —ChatGPT (OpenAI), Claude (Anthropic) un Gemini (Google) — uz jautājumiem, kas saistīti ar pašnāvību. Autori atklāja, ka ChatGPT un Claude mēdza atbilstoši reaģēt uz zema riska jautājumiem un izvairījās no tiešas informācijas sniegšanas augsta riska vaicājumiem, savukārt Gemini uzrādīja mainīgāku modeli un bieži vien izvēlējās neatbildēt pat tad, kad jautājums bija mazāk bīstams.
Tomēr darbā tika atklāts arī neatbilstības vidēja riska jautājumos —piemēram, kādu padomu dot kādam, kam ir domas par paškaitējumu—, pārmaiņus pareizās atbildes ar izlaidumiemPētnieki iesaka. vairāk izsmalcinātības izmantojot saskaņošanas metodes ar klīniskajiem ekspertiem un uzlabojumus nianšu noteikšanā.
Organizācijas, piemēram, Common Sense Media, ir aicinājušas piesardzība, lietojot mākslīgo intelektu kā uzņēmums pusaudžu vidūNesenā organizācijas ziņojumā teikts, ka gandrīz trīs no četriem jauniešiem ASV ir izmēģinājuši mākslīgā intelekta pavadoņus un ka vairāk nekā puse būtu regulāri lietotāji, kas palielina nepieciešamību pēc stabiliem drošības ietvariem.
Juridiskajā jomā prokuroru un regulatoru uzmanība tam ir jāpievērš. nepilngadīgo aizsardzība pret neatbilstošu mijiedarbību tērzēšanas robotos un kā ziņot par gadījumiem sociālajos tīklosNeskaidrība par to, kā mākslīgā intelekta atbildība iederas tādos noteikumos kā 230. sadaļa (juridisks vairogs platformām ASV) paver sarežģītu fronti tiesām.
Paralēlas lietas, piemēram, tiesvedība pret platformām sarunu kompānija attiecībā uz nepilngadīgajiem joprojām tiek izstrādāti, un varētu noteikt kritērijus attiecībā uz dizaina, brīdinājuma un riska mazināšana ģeneratīvajās sistēmās.
Adama Reina aiziešana mūžībā un tiesas prāva pret OpenAI simbolizē pagrieziena punktu: sarunas ar AI ir pārgājušas no eksperimentāla uz ikdienas, un tā loma emocionālajā sfērā prasa skaidrākus standartus. Kamēr tiesas nosaka atbildību, eksperti, ģimenes un uzņēmumi ir vienisprātis par nepieciešamību uzlabot drošības pasākumus, nodrošināt efektīvu vecāku kontroli un nodrošināt, ka pusaudzim krīzes situācijā vēršoties pie tērzēšanas robota, sistēma reaģē ar piesardzība, saskaņotība un reālas palīdzības iespējas.
Esmu tehnoloģiju entuziasts, kurš savas "geek" intereses ir pārvērtis profesijā. Es esmu pavadījis vairāk nekā 10 gadus no savas dzīves, izmantojot jaunākās tehnoloģijas un tīri ziņkārības vadīts ar visu veidu programmām. Tagad esmu specializējies datortehnoloģijās un videospēlēs. Tas ir tāpēc, ka vairāk nekā 5 gadus esmu rakstījis dažādām tīmekļa vietnēm par tehnoloģijām un videospēlēm, veidojot rakstus, kuru mērķis ir sniegt jums nepieciešamo informāciju ikvienam saprotamā valodā.
Ja jums ir kādi jautājumi, manas zināšanas svārstās no visa, kas saistīts ar Windows operētājsistēmu, kā arī Android mobilajiem tālruņiem. Un mana apņemšanās ir jums, es vienmēr esmu gatavs veltīt dažas minūtes un palīdzēt jums atrisināt visus jautājumus, kas jums varētu rasties šajā interneta pasaulē.