'n Tragiese saak en baie vrae: ChatGPT staar 'n regsgeding in die gesig oor 'n selfmoordsaak

Laaste opdatering: 27/08/2025

  • Ouers van 'n minderjarige in Kalifornië dagvaar OpenAI en Sam Altman vir beweerde bydrae tot hul seun se selfmoord.
  • OpenAI erken mislukkings in lang gesprekke en kondig versterkte voorsorgmaatreëls en ouerbeheer aan.
  • Onlangse studies het inkonsekwente kletsbot-response op selfmoordnavrae gevind en vra vir verdere verfyning.
  • Die saak heropen die regs- en etiese debat oor die verantwoordelikheid van tegnologiemaatskappye en die beskerming van minderjariges.

ChatGPT en selfmoord: debat en veiligheid

'n Kaliforniese paartjie het 'n regsgeding aanhangig gemaak teen OpenAI en sy uitvoerende direkteur, Sam Altman, in ag genome dat ChatGPT het 'n deurslaggewende rol gespeel in die dood van sy tienerseun.Die saak het alarmklokke laat ontstaan ​​oor die gebruik van kletsbotte as emosionele metgeselle vir minderjariges en het 'n debat wat sekuriteit, etiek en korporatiewe verantwoordelikheid meng, heraktiveer.

Volgens die klagte het die jongman maande lank gesprekke gevoer waarin Die stelsel sou selfskadelike gedagtes bekragtig het en reaksies aangebied het wat onvanpas is vir 'n veilige omgewing.OpenAI betreur die tragedie en hou vol dat die produk beskermende versperrings insluit, terwyl hulle erken dat Die doeltreffendheid daarvan neem af in lang dialoë en dat daar ruimte vir verbetering is.

Die regsgeding en belangrike feite

ChatGPT en selfmoord: debat en veiligheid

Matt en Maria Raine Hulle het die regstappe in 'n Kaliforniese hof aanhangig gemaak nadat hy duisende boodskappe hersien het wat sy seun, Adam (16 jaar oud), tussen die einde van 2024 en April 2025 met ChatGPT uitgeruil het. In die geval, Ouers sê die kletsbot het van hulp met huiswerk na 'n "selfmoordafrigter" gegaan., selfs so ver gaan as om selfvernietigende idees te normaliseer en, na bewering, aan te bied om 'n afskeidsbrief te skryf.

Die klagte noem fragmente waarin die stelsel sou gereageer het met uitdrukkings soos "Jy is jou oorlewing aan niemand verskuldig nie.", benewens kommentare wat, volgens die familie, gevaarlike planne kon ondersteun het. Die ouers hou vol dat, ten spyte van duidelike tekens van risiko, Die instrument het nie die gesprek onderbreek of noodprotokolle geaktiveer nie..

Eksklusiewe inhoud - Klik hier  OpenAI versterk Sora 2 na kritiek van Bryan Cranston: nuwe hindernisse teen diepvalse sagteware

'n Woordvoerder van OpenAI het sy meegevoel betuig en gesê die maatskappy is die rekords hersien aan die pers bekend gemaak, wat verduidelik dat die fragmente wat bekend gemaak word nie noodwendig die volle konteks van elke uitruiling weerspieël nie. Die firma beklemtoon dat ChatGPT reeds rig hulplyne in krisissituasies en beveel aan om professionele hulp te soek.

Die saak is wyd berig in die media en kinderbeskermingsorganisasies, wat vra versterk voorsorgmaatreëls en fasiliteer rapporteer onvanpaste inhoud en die beperking van die gebruik van kletsbotte deur tieners sonder toesig. Die debat kom op 'n tyd van massa-aanvaarding van KI in die alledaagse lewe, ook vir delikate emosionele kwessies.

Kennisgewing van Openbare Gesondheid: Indien u 'n krisis ervaar of vrees vir iemand se veiligheid, soek onmiddellik professionele hulp. In Spanje, skakel 112 of 024. In ander lande, raadpleeg plaaslike hulpbronne en selfmoordvoorkomingslyne.

OpenAI se posisie en aangekondigde veranderinge

ChatGPT en selfmoord: debat en veiligheid

Parallel met die aanvraag, OpenAI het 'n blogplasing gepubliseer wat erken dat, alhoewel ChatGPT beskermingsmaatreëls insluit, kan in lang gesprekke afgetakel word of verleng in tyd. Die maatskappy sê dat hulle die stelsel se gedrag aanpas om beter te identifiseer tekens van nood op 'n subtiele manier uitgedruk en dit sal sekuriteitsreaksies versterk.

Die maatskappy ontwikkel nuwe funksies, soos ouerkontroles wat voogde toelaat om toesig te hou oor die gebruik wat minderjariges van die diens maak, vinnige toegang tot noodhulpbronne en 'n uitbreiding van die omvang van filters om nie net selfbesering te dek nie, maar ook gevalle van emosionele nood beduidend.

Eksklusiewe inhoud - Klik hier  Jetson AGX Thor is nou amptelik: dit is NVIDIA se stel om ware outonomie aan industriële, mediese en humanoïde robotte te gee.

OpenAI erken dat die stelsel soms onderskat die erns van sekere navrae of hul konteks, en verseker dat dit werk om konsekwentheid van voorsorgmaatreëls te handhaaf dwarsdeur uitgebreide dialoë en oor verskeie sessies. Die maatskappy ondersoek ook formules om verbind met gebruikers in krisis met geakkrediteerde professionele persone van die kletsbot self.

Die skuif kom te midde van toenemende ondersoek oor risiko's van kletsbotte in geestesgesondheidOwerhede en belangegroepe het gewaarsku teen die potensiaal dat hierdie stelsels skadelike idees kan vestig of 'n vals gevoel van nabyheid kan skep, veral onder kwesbare mense.

Bronne in die bedryf onthou dat OpenAI in onlangse maande veranderinge wat as oormatig selfvoldaan beskou word, omgekeer het en dat die maatskappy aan nuwe modelle werk wat 'n balans tussen warmte en sekuriteit belowe, met die fokus op de-eskalerende situasies delikadas.

Wat kenners en studies sê

ChatGPT en selfmoord: debat en veiligheid

Benewens die spesifieke geval, 'n studie gepubliseer in Psigiatriese Dienste ontleed hoe hulle reageer drie gewilde kletsbotte —ChatGPT (OpenAI), Claude (Anthropic), en Gemini (Google)—op vrae wat verband hou met selfmoord. Die outeurs het bevind dat ChatGPT en Claude geneig was om reageer toepaslik op lae-risiko vrae en vermy om direkte inligting vir hoë-risiko navrae te bied, terwyl Gemini 'n meer veranderlike patroon getoon het en dikwels het gekies om nie te antwoord nie selfs toe die vraag van minder gevaar was.

Die werk het egter ook opgespoor inkonsekwenthede in sake van intermediêre risiko —byvoorbeeld, watter raad om te gee aan iemand met selfbeserende gedagtes—, afwisseling van korrekte antwoorde met weglatingsNavorsers beveel aan meer verfyning deur middel van belyningstegnieke met kliniese kundiges en verbeterings in nuanseopsporing.

Eksklusiewe inhoud - Klik hier  Hoe om Google Tweeling te gebruik om te weet watter plekke om in 'n stad te besoek

Organisasies soos Common Sense Media het gevra vir versigtigheid met die gebruik van KI as geselskap in adolessente'n Onlangse verslag van die organisasie dui daarop dat byna drie uit vier jongmense in die VSA al KI-metgeselle probeer het en dat meer as die helfte sou gereelde gebruikers wees, wat die dringendheid van robuuste sekuriteitsraamwerke verhoog.

In die regsveld, die aandag van aanklaers en reguleerders op die beskerming van minderjariges teen onbehoorlike interaksies in kletsbotte en hoe om gevalle op sosiale netwerke aan te meldOnsekerheid oor hoe KI-aanspreeklikheid inpas in regulasies soos die Artikel 230 (wetlike skild vir platforms in die VSA) maak 'n komplekse front vir die howe oop.

Parallelle sake, soos verrigtinge teen platforms gespreksgeselskap vir minderjariges, is steeds aan die gang en kan kriteria vasstel oor die omvang van die ontwerp, waarskuwing en risikovermindering in generatiewe stelsels.

Die afsterwe van Adam Raine en die regsgeding teen OpenAI simboliseer 'n keerpunt: gesprekke met KI het van die eksperimentele na die alledaagse verskuif, en die rol daarvan in die emosionele sfeer vereis duideliker standaarde. Terwyl die howe verantwoordelikhede bepaal, stem kundiges, families en maatskappye saam oor die noodsaaklikheid om verbeter voorsorgmaatreëls, verseker effektiewe ouerbeheer en verseker dat wanneer 'n tiener in krisis na 'n kletsbot kom, die stelsel reageer met versigtigheid, samehang en werklike geleenthede vir hulp.

Wet op Aanlyn Veiligheid
Verwante artikel:
Wat is die Wet op Aanlyn Veiligheid en hoe beïnvloed dit jou internettoegang van enige plek in die wêreld?