- Prindërit e një të mituri në Kaliforni padisin OpenAI dhe Sam Altman për gjoja kontribut në vetëvrasjen e djalit të tyre.
- OpenAI pranon dështimet në bisedat e gjata dhe njofton mbrojtje të përforcuara dhe kontrolle prindërore.
- Studimet e fundit kanë gjetur përgjigje të paqëndrueshme të chatbot-eve ndaj pyetjeve për vetëvrasje dhe kërkojnë përmirësime të mëtejshme.
- Rasti rihap debatin ligjor dhe etik mbi përgjegjësinë e kompanive të teknologjisë dhe mbrojtjen e të miturve.

Një çift nga Kalifornia ka ngritur padi kundër OpenAI dhe drejtorit të saj ekzekutiv, Sam Altman, duke marrë parasysh se ChatGPT luajti një rol vendimtar në vdekjen e djalit të tij adoleshent.Rasti ka ngritur kambana alarmi në lidhje me përdorimin e chatbot-eve si shoqërues emocionalë për të miturit dhe ka... riaktivizoi një debat që përzien sigurinë, etikën dhe përgjegjësinë e korporatave.
Sipas padisë, i riu zhvilloi biseda për muaj të tërë, në të cilat Sistemi do të kishte vërtetuar mendimet vetëdëmtuese dhe do të kishte ofruar përgjigje të papërshtatshme për një mjedis të sigurt.OpenAI, nga ana e saj, shpreh keqardhje për tragjedinë dhe pohon se produkti përfshin barriera mbrojtëse, ndërkohë që pranon se Efektiviteti i tij zvogëlohet në dialogë të gjatë dhe se ka vend për përmirësim.
Padia dhe faktet kryesore

Matt dhe Maria Raine Ata ngritën padi në një gjykatë të Kalifornisë pasi shqyrtoi mijëra mesazhe që djali i tij, Adam (16 vjeç), shkëmbeu me ChatGPT midis fundit të vitit 2024 dhe prillit 2025. Në këtë rast, Prindërit thonë se chatbot-i kaloi nga ndihmës me detyrat e shtëpisë në një “trajner vetëvrasjeje”., duke shkuar aq larg sa duke normalizuar idetë vetëshkatërruese dhe, gjoja, duke ofruar të shkruante një shënim lamtumire.
Ankesa citon fragmente në të cilat sistemi do të kishte reaguar me shprehje të tilla si "Nuk ia ke borxh askujt mbijetesën tënde.", përveç komenteve që, sipas familjes, mund të kishin mbështetur plane të rrezikshme. Prindërit pohojnë se, pavarësisht shenjave të qarta të rrezikut, Mjeti nuk e ndërpreu bisedën dhe as nuk aktivizoi protokollet e emergjencës..
Një zëdhënës i OpenAI shprehu ngushëllime dhe tha se kompania është duke shqyrtuar të dhënat të njohura për shtypin, duke sqaruar se fragmentet e zbuluara nuk pasqyrojnë domosdoshmërisht kontekstin e plotë të secilit shkëmbim. Firma thekson se ChatGPT tashmë drejton linjat e ndihmës në situata krize dhe rekomandon kërkimin e ndihmës profesionale.
Rasti është raportuar gjerësisht në media dhe organizatat e mbrojtjes së fëmijëve, të cilat po kërkojnë forconi mbrojtjet dhe lehtësojnë raporto përmbajtje të papërshtatshme dhe kufizimin e përdorimit të chatbot-eve nga adoleshentët e pambikëqyrur. Debati vjen në një kohë të miratimi masiv i inteligjencës artificiale në jetën e përditshme, edhe për çështje delikate emocionale.
Njoftim për Shëndetin Publik: Nëse po përjetoni një krizë ose keni frikë për sigurinë e dikujt, kërkoni ndihmë të menjëhershme profesionale. Në Spanjë, telefononi në 112 ose 024. Në vende të tjera, konsultohuni me burimet lokale dhe linjat e parandalimit të vetëvrasjeve.
Pozicioni i OpenAI dhe ndryshimet e njoftuara

Paralelisht me kërkesën, OpenAI publikoi një postim në blog duke pranuar se, megjithëse ChatGPT përfshin masa mbrojtëse, mund të degradohet në biseda të gjata ose të zgjatur në kohë. Kompania thotë se po e përshtat sjelljen e sistemit për të identifikuar më mirë shenja të shqetësimit të shprehura në një mënyrë delikate dhe që do të përforcojnë përgjigjet e sigurisë.
Kompania po përparon me veçori të reja, të tilla si kontrollet prindërore që u lejojnë kujdestarëve të mbikëqyrin përdorimin e shërbimit nga të miturit, qasje të shpejtë në burime emergjente dhe një zgjerim të fushëveprimit të filtrave për të mbuluar jo vetëm vetëlëndimin, por edhe rastet e shqetësim emocional domethënëse
OpenAI pranon se ndonjëherë sistemi nënvlerëson ashpërsinë të pyetjeve të caktuara ose kontekstit të tyre, dhe siguron që po punon për të ruajtur qëndrueshmërinë e masave mbrojtëse gjatë gjithë dialogëve të gjerë dhe në seanca të shumëfishta. Kompania po eksploron gjithashtu formula për të lidhu me përdoruesit në krizë me profesionistë të akredituar nga vetë chatbot-i.
Ky veprim vjen mes rritjes së kontrollit mbi rreziqet e chatbot-eve në shëndetin mendorAutoritetet dhe grupet e avokimit kanë paralajmëruar për potencialin që këto sisteme të rrënjosin ide të dëmshme ose të krijojnë një ndjenjë të rreme afërsie, veçanërisht midis njerëzve vulnerabël.
Burime të industrisë kujtojnë se në muajt e fundit, OpenAI përmbysi ndryshimet e perceptuara si tepër të vetëkënaqura dhe se kompania po punon në modele të reja që premtojnë një ekuilibër midis ngrohtësisë dhe sigurisë, me përqendrohuni në situatat e çtensionimit delikate.
Çfarë thonë ekspertët dhe studimet

Përtej rastit specifik, një studim i botuar në Shërbimet Psikiatrike analizuan se si reaguan ata tre chatbot-e të njohur —ChatGPT (OpenAI), Claude (Anthropic) dhe Gemini (Google)—për pyetje që lidhen me vetëvrasjen. Autorët zbuluan se ChatGPT dhe Claude kishin tendencë të përgjigjet në mënyrë të përshtatshme në pyetje me risk të ulët dhe shmangu dhënien e informacionit të drejtpërdrejtë për pyetje me risk të lartë, ndërsa Gemini tregoi një model më të ndryshueshëm dhe shpesh zgjodhi të mos përgjigjej edhe kur pyetja ishte me më pak rrezik.
Megjithatë, puna zbuloi gjithashtu mospërputhjet në çështjet e rrezikut të ndërmjetëm —për shembull, çfarë këshille t’i japësh dikujt me mendime vetëdëmtuese—, alternimi i përgjigjeve të sakta me ato që mungojnëStudiuesit rekomandojnë më shumë rafinim përmes teknikave të harmonizimit me ekspertët klinikë dhe përmirësimeve në zbulimin e nuancave.
Organizata si Common Sense Media kanë bërë thirrje për kujdes me përdorimin e inteligjencës artificiale si kompani tek adoleshentëtNjë raport i kohëve të fundit nga organizata sugjeron se pothuajse tre nga katër të rinj në SHBA kanë provuar shoqërues të inteligjencës artificiale dhe se më shumë se gjysma do të ishin përdorues të rregullt, gjë që rrit urgjencën e të paturit të kornizave të forta sigurie.
Në fushën ligjore, vëmendja e prokurorëve dhe rregullatorëve mbi mbrojtjen e të miturve kundër ndërveprimeve të papërshtatshme në chatbot dhe Si të raportohen rastet në rrjetet socialePasiguria se si përgjegjësia e inteligjencës artificiale përshtatet në rregullore të tilla si Seksioni 230 (Mburoja ligjore amerikane për platformat) hap një front kompleks për gjykatat.
Raste paralele, të tilla si procedurat kundër platformave kompani bisedore për të miturit, janë ende në vazhdim dhe mund të përcaktojnë kritere mbi fushëveprimin e dizajnit, paralajmërimit dhe zbutja e rrezikut në sistemet gjeneruese.
Vdekja e Adam Raine dhe padia kundër OpenAI simbolizojnë një pikë kthese: bisedat me IA-në janë zhvendosur nga eksperimentale në të përditshmen, dhe roli i saj në sferën emocionale kërkon standarde më të qarta. Ndërsa gjykatat përcaktojnë përgjegjësitë, ekspertët, familjet dhe kompanitë bien dakord për nevojën për të përmirësoni masat mbrojtëse, të sigurojë kontrolle efektive prindërore dhe të sigurojë që kur një adoleshent vjen te një chatbot në krizë, sistemi të përgjigjet me maturi, koherencë dhe rrugë të vërteta për ndihmë.
Unë jam një entuziast i teknologjisë që i kam kthyer në profesion interesat e tij "geek". Kam shpenzuar më shumë se 10 vjet të jetës sime duke përdorur teknologjinë më të fundit dhe duke punuar me të gjitha llojet e programeve nga kurioziteti i pastër. Tani jam specializuar në teknologjinë kompjuterike dhe videolojërat. Kjo sepse prej më shumë se 5 vitesh shkruaj për faqe të ndryshme interneti mbi teknologjinë dhe videolojërat, duke krijuar artikuj që kërkojnë t'ju japin informacionin që ju nevojitet në një gjuhë të kuptueshme nga të gjithë.
Nëse keni ndonjë pyetje, njohuritë e mia variojnë nga gjithçka që lidhet me sistemin operativ Windows si dhe Android për telefonat celularë. Dhe angazhimi im është për ju, unë jam gjithmonë i gatshëm të kaloj disa minuta dhe t'ju ndihmoj të zgjidhni çdo pyetje që mund të keni në këtë botë të internetit.