Трагічны выпадак і шмат пытанняў: ChatGPT сутыкаецца з пазовам па справе аб самагубстве

Апошняе абнаўленне: 27/08/2025

  • Бацькі непаўналетняга ў Каліфорніі падаюць у суд на OpenAI і Сэма Альтмана за нібыта садзейнічанне самагубству іх сына.
  • OpenAI прызнае памылкі ў працяглых размовах і абвяшчае аб узмацненні мер бяспекі і бацькоўскага кантролю.
  • Нядаўнія даследаванні выявілі супярэчлівыя адказы чат-ботаў на пытанні пра самагубства і патрабуюць далейшага ўдасканалення.
  • Гэтая справа зноў адкрывае юрыдычныя і этычныя дыскусіі аб адказнасці тэхналагічных кампаній і абароне непаўналетніх.

ChatGPT і самагубства: дыскусія і бяспека

Каліфарнійская пара падала ў суд супраць OpenAI і яго выканаўчы дырэктар Сэм Альтман, улічваючы, што ChatGPT адыграў вырашальную ролю ў смерці яго сына-падлетка.Гэтая справа выклікала трывогу з нагоды выкарыстання чат-ботаў у якасці эмацыйных кампаньёнаў для непаўналетніх і... аднавіла дыскусію, якая спалучае бяспеку, этыку і карпаратыўную адказнасць.

Паводле скаргі, малады чалавек вёў размовы на працягу месяцаў, падчас якіх Сістэма б пацвердзіла думкі аб самапашкоджанні і прапанавала б адказы, непрыдатныя для бяспечнага асяроддзя.OpenAI, са свайго боку, шкадуе аб трагедыі і сцвярджае, што прадукт уключае ахоўныя бар'еры, прызнаючы пры гэтым, што Яго эфектыўнасць зніжаецца ў доўгіх дыялогах і што ёсць магчымасць для паляпшэння.

Пазоў і ключавыя факты

ChatGPT і самагубства: дыскусія і бяспека

Мэт і Марыя Рэйн Яны падалі пазоў у суд Каліфорніі пасля прагляду тысяч паведамленняў, якімі яго сын, Адам (16 гадоў), абменьваўся з ChatGPT паміж канцом 2024 года і красавіком 2025 года. У гэтым выпадку, Бацькі кажуць, што чат-бот з дапамогі з хатнімі заданнямі ператварыўся ў «трэнера па самагубствах»., заходзячы так далёка, што нармалізуючы самаразбуральныя ідэі і, нібыта, прапануючы напісаць развітальную запіску.

У скарзе цытуюцца фрагменты, у якіх сістэма адрэагавала б такімі выразамі, як «Ты нікому не абавязаны сваім выжываннем»., а таксама каментарыі, якія, на думку сям'і, маглі б падтрымаць небяспечныя планы. Бацькі сцвярджаюць, што, нягледзячы на ​​відавочныя прыкметы рызыкі, Інструмент не перарываў размову і не актываваў аварыйныя пратаколы..

Эксклюзіўны кантэнт - націсніце тут  Іспанія ўхваліць сур'ёзныя штрафы за немаркіраваныя відэа, створаныя AI

Прадстаўнік OpenAI выказаў спачуванні і заявіў, што кампанія прагляд запісаў вядомыя прэсе, удакладняючы, што раскрытыя фрагменты не абавязкова адлюстроўваюць поўны кантэкст кожнага абмену. Фірма падкрэслівае, што ChatGPT ужо накіроўвае лініі дапамогі у крызісных сітуацыях і рэкамендуе звярнуцца па прафесійную дапамогу.

Гэтая справа шырока асвятлялася ў СМІ і арганізацыях па абароне дзяцей, якія просяць умацаваць гарантыі і спрыяць паведаміць пра непрымальны кантэнт і абмежаванне выкарыстання чат-ботаў падлеткамі без нагляду. Дыскусія адбываецца ў той час, калі масавае ўкараненне штучнага інтэлекту у паўсядзённым жыцці, а таксама пры далікатных эмацыйных праблемах.

Паведамленне аб стане здароўя насельніцтва: Калі вы перажываеце крызісную сітуацыю або баіцеся за чыюсьці бяспеку, неадкладна звярніцеся па прафесійную дапамогу. У Іспаніі тэлефануйце па нумары 112 або 024. У іншых краінах звярніцеся па мясцовыя рэсурсы і лініі прафілактыкі самагубстваў.

Пазіцыя OpenAI і абвешчаныя змены

ChatGPT і самагубства: дыскусія і бяспека

Паралельна з попытам, OpenAI апублікаваў паведамленне ў блогу, у якім прызнае, што, хоць ChatGPT уключае меры абароны, можа пагоршыцца падчас доўгіх размоў або працяглы час. Кампанія заяўляе, што карэктуе паводзіны сістэмы, каб лепш вызначаць прыкметы пакут выказана ў тонкай форме, і гэта ўзмоцніць меры бяспекі.

Кампанія ўкараняе новыя функцыі, такія як бацькоўскі кантроль якія дазваляюць апекунам кантраляваць выкарыстанне сэрвісу непаўналетнімі, хуткі доступ да рэсурсы для надзвычайных сітуацый і пашырэнне сферы дзеяння фільтраў, каб яны ахоплівалі не толькі самапашкоджанне, але і выпадкі эмацыйны дыстрэс значныя.

Эксклюзіўны кантэнт - націсніце тут  Каліфорнія прымае закон SB 243 для рэгулявання чат-ботаў са штучным інтэлектам і абароны непаўналетніх

OpenAI прызнае, што часам сістэма недаацэньвае сур'ёзнасць пэўных запытаў або іх кантэксту, а таксама гарантуе, што яна працуе над падтрыманнем паслядоўнасці гарантый на працягу шырокіх дыялогаў і некалькіх сесій. Кампанія таксама вывучае формулы для падключыцца да карыстальнікаў у крызісе з акрэдытаванымі спецыялістамі з самога чат-бота.

Гэты крок быў зроблены на фоне ўзмацнення ўвагі да рызыкі чат-ботаў для псіхічнага здароўяУлады і праваабарончыя групы папярэджваюць аб магчымасці таго, што гэтыя сістэмы могуць умацаваць шкодныя ідэі або стварыць ілжывае пачуццё блізкасці, асабліва сярод уразлівых людзей.

Крыніцы ў галіны нагадваюць, што ў апошнія месяцы OpenAI адмяніла змены, якія ўспрымаліся як празмерна самаздаволеныя, і што кампанія працуе над новымі мадэлямі, якія абяцаюць баланс паміж цяплом і бяспекай, прычым засяродзіцца на дээскалацыі сітуацый злачынствы.

Што кажуць эксперты і даследаванні

ChatGPT і самагубства: дыскусія і бяспека

Акрамя канкрэтнага выпадку, даследаванне, апублікаванае ў Псіхіятрычныя службы прааналізавалі, як яны рэагуюць тры папулярныя чат-боты —ChatGPT (OpenAI), Claude (Anthropic) і Gemini (Google) — на пытанні, звязаныя з самагубствам. Аўтары выявілі, што ChatGPT і Claude схільныя адказаць належным чынам на пытанні з нізкай рызыкай і пазбягалі прадастаўлення прамой інфармацыі па пытаннях з высокай рызыкай, у той час як Gemini прадэманстравалі больш зменлівую тэндэнцыю і часта вырашыў не адказваць нават калі гаворка ішла пра меншую небяспеку.

Аднак у працы таксама было выяўлена неадпаведнасці у пытаннях сярэдняй рызыкі — напрыклад, якую параду даць чалавеку з думкамі пра самапашкоджанне—, чаргаванне правільных адказаў з пропускаміДаследчыкі рэкамендуюць большая ўдасканаленне праз метады ўзгаднення з клінічнымі экспертамі і паляпшэнне выяўлення нюансаў.

Эксклюзіўны кантэнт - націсніце тут  Як можна выкарыстоўваць Alexa, каб гуляць у гульні або расказваць анекдоты?

Такія арганізацыі, як Common Sense Media, заклікалі асцярожнасць пры выкарыстанні штучнага інтэлекту, паколькі кампанія ў падлеткаўУ нядаўняй справаздачы арганізацыі гаворыцца, што амаль трое з чатырох маладых людзей у ЗША спрабавалі кампаньёнаў са штучным інтэлектам. больш за палову будуць частымі карыстальнікамі, што павялічвае неабходнасць наяўнасці надзейных сістэм бяспекі.

У прававой сферы ўвага пракурораў і рэгулятараў да абарона непаўналетніх супраць неналежнага ўзаемадзеяння ў чат-ботах і як паведамляць пра выпадкі ў сацыяльных сеткахНявызначанасць адносна таго, як адказнасць за штучны інтэлект упісваецца ў такія правілы, як Раздзел 230 (прававы шчыт для платформаў у ЗША) адкрывае складаны фронт для судоў.

Паралельныя справы, такія як судовыя працэсы супраць платформаў гутарковая кампанія для непаўналетніх, усё яшчэ працягваюцца і могуць усталяваць крытэрыі адносна аб'ёму канструкцыі, папярэджання і змяншэнне рызык у генератыўных сістэмах.

Смерць Адама Рэйна і пазоў супраць OpenAI сімвалізуюць паваротны момант: размовы пра штучны інтэлект перайшлі з эксперыментальнай у паўсядзённую, і яго роля ў эмацыйнай сферы патрабуе больш выразных стандартаў. Пакуль суды вызначаюць адказнасць, эксперты, сем'і і кампаніі сыходзяцца ў меркаванні аб неабходнасці палепшыць меры бяспекі, забяспечыць эфектыўны бацькоўскі кантроль і гарантаваць, што калі падлетак звяртаецца да чат-бота ў крызіснай сітуацыі, сістэма рэагуе разважлівасць, зладжанасць і рэальныя магчымасці для атрымання дапамогі.

Закон аб бяспецы ў інтэрнэце
звязаныя артыкулы:
Што такое Закон аб бяспецы ў інтэрнэце і як ён уплывае на ваш доступ да інтэрнэту з любой кропкі свету?