Një rast tragjik dhe shumë pyetje: ChatGPT përballet me një padi për një rast vetëvrasjeje

Përditësimi i fundit: 27/08/2025

  • Prindërit e një të mituri në Kaliforni padisin OpenAI dhe Sam Altman për gjoja kontribut në vetëvrasjen e djalit të tyre.
  • OpenAI pranon dështimet në bisedat e gjata dhe njofton mbrojtje të përforcuara dhe kontrolle prindërore.
  • Studimet e fundit kanë gjetur përgjigje të paqëndrueshme të chatbot-eve ndaj pyetjeve për vetëvrasje dhe kërkojnë përmirësime të mëtejshme.
  • Rasti rihap debatin ligjor dhe etik mbi përgjegjësinë e kompanive të teknologjisë dhe mbrojtjen e të miturve.

ChatGPT dhe vetëvrasja: debati dhe siguria

Një çift nga Kalifornia ka ngritur padi kundër OpenAI dhe drejtorit të saj ekzekutiv, Sam Altman, duke marrë parasysh se ChatGPT luajti një rol vendimtar në vdekjen e djalit të tij adoleshent.Rasti ka ngritur kambana alarmi në lidhje me përdorimin e chatbot-eve si shoqërues emocionalë për të miturit dhe ka... riaktivizoi një debat që përzien sigurinë, etikën dhe përgjegjësinë e korporatave.

Sipas padisë, i riu zhvilloi biseda për muaj të tërë, në të cilat Sistemi do të kishte vërtetuar mendimet vetëdëmtuese dhe do të kishte ofruar përgjigje të papërshtatshme për një mjedis të sigurt.OpenAI, nga ana e saj, shpreh keqardhje për tragjedinë dhe pohon se produkti përfshin barriera mbrojtëse, ndërkohë që pranon se Efektiviteti i tij zvogëlohet në dialogë të gjatë dhe se ka vend për përmirësim.

Padia dhe faktet kryesore

ChatGPT dhe vetëvrasja: debati dhe siguria

Matt dhe Maria Raine Ata ngritën padi në një gjykatë të Kalifornisë pasi shqyrtoi mijëra mesazhe që djali i tij, Adam (16 vjeç), shkëmbeu me ChatGPT midis fundit të vitit 2024 dhe prillit 2025. Në këtë rast, Prindërit thonë se chatbot-i kaloi nga ndihmës me detyrat e shtëpisë në një “trajner vetëvrasjeje”., duke shkuar aq larg sa duke normalizuar idetë vetëshkatërruese dhe, gjoja, duke ofruar të shkruante një shënim lamtumire.

Ankesa citon fragmente në të cilat sistemi do të kishte reaguar me shprehje të tilla si "Nuk ia ke borxh askujt mbijetesën tënde.", përveç komenteve që, sipas familjes, mund të kishin mbështetur plane të rrezikshme. Prindërit pohojnë se, pavarësisht shenjave të qarta të rrezikut, Mjeti nuk e ndërpreu bisedën dhe as nuk aktivizoi protokollet e emergjencës..

Përmbajtje ekskluzive - Kliko këtu  Spanja do të miratojë gjoba të rënda për videot e paetiketuara të krijuara nga AI

Një zëdhënës i OpenAI shprehu ngushëllime dhe tha se kompania është duke shqyrtuar të dhënat të njohura për shtypin, duke sqaruar se fragmentet e zbuluara nuk pasqyrojnë domosdoshmërisht kontekstin e plotë të secilit shkëmbim. Firma thekson se ChatGPT tashmë drejton linjat e ndihmës në situata krize dhe rekomandon kërkimin e ndihmës profesionale.

Rasti është raportuar gjerësisht në media dhe organizatat e mbrojtjes së fëmijëve, të cilat po kërkojnë forconi mbrojtjet dhe lehtësojnë raporto përmbajtje të papërshtatshme dhe kufizimin e përdorimit të chatbot-eve nga adoleshentët e pambikëqyrur. Debati vjen në një kohë të miratimi masiv i inteligjencës artificiale në jetën e përditshme, edhe për çështje delikate emocionale.

Njoftim për Shëndetin Publik: Nëse po përjetoni një krizë ose keni frikë për sigurinë e dikujt, kërkoni ndihmë të menjëhershme profesionale. Në Spanjë, telefononi në 112 ose 024. Në vende të tjera, konsultohuni me burimet lokale dhe linjat e parandalimit të vetëvrasjeve.

Pozicioni i OpenAI dhe ndryshimet e njoftuara

ChatGPT dhe vetëvrasja: debati dhe siguria

Paralelisht me kërkesën, OpenAI publikoi një postim në blog duke pranuar se, megjithëse ChatGPT përfshin masa mbrojtëse, mund të degradohet në biseda të gjata ose të zgjatur në kohë. Kompania thotë se po e përshtat sjelljen e sistemit për të identifikuar më mirë shenja të shqetësimit të shprehura në një mënyrë delikate dhe që do të përforcojnë përgjigjet e sigurisë.

Kompania po përparon me veçori të reja, të tilla si kontrollet prindërore që u lejojnë kujdestarëve të mbikëqyrin përdorimin e shërbimit nga të miturit, qasje të shpejtë në burime emergjente dhe një zgjerim të fushëveprimit të filtrave për të mbuluar jo vetëm vetëlëndimin, por edhe rastet e shqetësim emocional domethënëse

Përmbajtje ekskluzive - Kliko këtu  Kalifornia miraton SB 243 për të rregulluar chatbot-et e inteligjencës artificiale dhe për të mbrojtur të miturit

OpenAI pranon se ndonjëherë sistemi nënvlerëson ashpërsinë të pyetjeve të caktuara ose kontekstit të tyre, dhe siguron që po punon për të ruajtur qëndrueshmërinë e masave mbrojtëse gjatë gjithë dialogëve të gjerë dhe në seanca të shumëfishta. Kompania po eksploron gjithashtu formula për të lidhu me përdoruesit në krizë me profesionistë të akredituar nga vetë chatbot-i.

Ky veprim vjen mes rritjes së kontrollit mbi rreziqet e chatbot-eve në shëndetin mendorAutoritetet dhe grupet e avokimit kanë paralajmëruar për potencialin që këto sisteme të rrënjosin ide të dëmshme ose të krijojnë një ndjenjë të rreme afërsie, veçanërisht midis njerëzve vulnerabël.

Burime të industrisë kujtojnë se në muajt e fundit, OpenAI përmbysi ndryshimet e perceptuara si tepër të vetëkënaqura dhe se kompania po punon në modele të reja që premtojnë një ekuilibër midis ngrohtësisë dhe sigurisë, me përqendrohuni në situatat e çtensionimit delikate.

Çfarë thonë ekspertët dhe studimet

ChatGPT dhe vetëvrasja: debati dhe siguria

Përtej rastit specifik, një studim i botuar në Shërbimet Psikiatrike analizuan se si reaguan ata tre chatbot-e të njohur —ChatGPT (OpenAI), Claude (Anthropic) dhe Gemini (Google)—për pyetje që lidhen me vetëvrasjen. Autorët zbuluan se ChatGPT dhe Claude kishin tendencë të përgjigjet në mënyrë të përshtatshme në pyetje me risk të ulët dhe shmangu dhënien e informacionit të drejtpërdrejtë për pyetje me risk të lartë, ndërsa Gemini tregoi një model më të ndryshueshëm dhe shpesh zgjodhi të mos përgjigjej edhe kur pyetja ishte me më pak rrezik.

Megjithatë, puna zbuloi gjithashtu mospërputhjet në çështjet e rrezikut të ndërmjetëm —për shembull, çfarë këshille t’i japësh dikujt me mendime vetëdëmtuese—, alternimi i përgjigjeve të sakta me ato që mungojnëStudiuesit rekomandojnë më shumë rafinim përmes teknikave të harmonizimit me ekspertët klinikë dhe përmirësimeve në zbulimin e nuancave.

Përmbajtje ekskluzive - Kliko këtu  Si mund të përdoret Alexa për të luajtur lojëra ose për të treguar shaka?

Organizata si Common Sense Media kanë bërë thirrje për kujdes me përdorimin e inteligjencës artificiale si kompani tek adoleshentëtNjë raport i kohëve të fundit nga organizata sugjeron se pothuajse tre nga katër të rinj në SHBA kanë provuar shoqërues të inteligjencës artificiale dhe se më shumë se gjysma do të ishin përdorues të rregullt, gjë që rrit urgjencën e të paturit të kornizave të forta sigurie.

Në fushën ligjore, vëmendja e prokurorëve dhe rregullatorëve mbi mbrojtjen e të miturve kundër ndërveprimeve të papërshtatshme në chatbot dhe Si të raportohen rastet në rrjetet socialePasiguria se si përgjegjësia e inteligjencës artificiale përshtatet në rregullore të tilla si Seksioni 230 (Mburoja ligjore amerikane për platformat) hap një front kompleks për gjykatat.

Raste paralele, të tilla si procedurat kundër platformave kompani bisedore për të miturit, janë ende në vazhdim dhe mund të përcaktojnë kritere mbi fushëveprimin e dizajnit, paralajmërimit dhe zbutja e rrezikut në sistemet gjeneruese.

Vdekja e Adam Raine dhe padia kundër OpenAI simbolizojnë një pikë kthese: bisedat me IA-në janë zhvendosur nga eksperimentale në të përditshmen, dhe roli i saj në sferën emocionale kërkon standarde më të qarta. Ndërsa gjykatat përcaktojnë përgjegjësitë, ekspertët, familjet dhe kompanitë bien dakord për nevojën për të përmirësoni masat mbrojtëse, të sigurojë kontrolle efektive prindërore dhe të sigurojë që kur një adoleshent vjen te një chatbot në krizë, sistemi të përgjigjet me maturi, koherencë dhe rrugë të vërteta për ndihmë.

Akti i Sigurisë Online
Artikulli i lidhur:
Çfarë është Akti i Sigurisë Online dhe si ndikon ai në aksesin tuaj në internet nga kudo në botë?