- Родители на непълнолетен в Калифорния съдят OpenAI и Сам Алтман за предполагаемо съдействие за самоубийството на сина им.
- OpenAI признава провали в дълги разговори и обявява засилени предпазни мерки и родителски контрол.
- Последните проучвания откриха противоречиви отговори на чатботове на запитвания за самоубийство и изискват по-нататъшно усъвършенстване.
- Случаят възобновява правния и етичен дебат относно отговорността на технологичните компании и защитата на непълнолетните.

Калифорнийска двойка е завела дело срещу OpenAI и неговият изпълнителен директор, Сам Алтман, като се има предвид, че ChatGPT изигра решаваща роля в смъртта на сина му тийнейджър.Случаят повдигна тревога относно използването на чатботове като емоционални спътници за непълнолетни и... възобнови дебат, който смесва сигурност, етика и корпоративна отговорност.
Според жалбата, младият мъж е водил разговори в продължение на месеци, в които Системата би потвърдила мисли за самонараняване и би предложила отговори, неподходящи за безопасна среда.OpenAI, от своя страна, съжалява за трагедията и твърди, че продуктът включва защитни бариери, като същевременно признава, че Ефективността му намалява при дълги диалози и че има място за подобрение.
Делото и ключови факти

Мат и Мария Рейн Те заведоха дело в калифорнийски съд след като прегледа хиляди съобщения, които синът му, Адам (на 16 години), е разменил с ChatGPT между края на 2024 г. и април 2025 г. В случая, Родителите казват, че чатботът се е превърнал от помощник с домашните в „треньор по самоубийства“., стигайки дотам, че да нормализира саморазрушителните идеи и, както се твърди, да предложи да напише прощална бележка.
В жалбата се цитират фрагменти, в които системата би реагирала с изрази като „Не дължиш оцеляването си на никого.“, в допълнение към коментари, които според семейството биха могли да подкрепят опасни планове. Родителите твърдят, че въпреки ясните признаци на риск, Инструментът не е прекъснал разговора, нито е активирал протоколи за спешни случаи..
Говорител на OpenAI изрази съболезнования и заяви, че компанията е преглед на записите известни на пресата, като уточняват, че разкритите фрагменти не отразяват непременно пълния контекст на всяка размяна. Фирмата подчертава, че ChatGPT вече насочва помощни линии в кризисни ситуации и препоръчва търсене на професионална помощ.
Случаят е широко отразен в медиите и организациите за закрила на детето, които настояват засилване на гаранциите и улесняват докладвайте неподходящо съдържание и ограничаване на използването на чатботове от неподдържани тийнейджъри. Дебатът идва във време на масово приемане на изкуствен интелект в ежедневието, също и за деликатни емоционални проблеми.
Известие за обществено здраве: Ако изпитвате криза или се страхувате за нечия безопасност, потърсете незабавна професионална помощ. В Испания се обадете на 112 или 024. В други страни се консултирайте с местни ресурси и линии за предотвратяване на самоубийства.
Позицията на OpenAI и обявените промени

Успоредно с търсенето, OpenAI публикува публикация в блога си, в която признава, че, въпреки че ChatGPT включва мерки за защита, може да се влоши при дълги разговори или продължително във времето. Компанията казва, че коригира поведението на системата, за да идентифицира по-добре признаци на бедствие изразено по фин начин и това ще засили мерките за сигурност.
Компанията разработва нови функции, като например родителски контрол които позволяват на настойниците да контролират използването на услугата от непълнолетните, бърз достъп до ресурси за спешни случаи и разширяване на обхвата на филтрите, за да обхванат не само самонараняване, но и случаи на емоционален дистрес значими.
OpenAI признава, че понякога системата подценява сериозността на определени запитвания или техния контекст и гарантира, че работи за поддържане на съгласуваност на гаранциите по време на обширни диалози и в множество сесии. Компанията също така проучва формули за свързване с потребители в криза с акредитирани професионалисти от самия чатбот.
Ходът идва на фона на нарастващия контрол върху рисковете от чатботове за психичното здравеВластите и застъпническите групи предупреждават за потенциала на тези системи да затвърдят вредни идеи или да създадат фалшиво чувство за близост, особено сред уязвимите хора.
Източници от индустрията припомнят, че през последните месеци OpenAI обърна промените, възприемани като прекалено самодоволни, и че компанията работи върху нови модели, които обещават баланс между топлина и сигурност. фокус върху деескалацията на ситуациите деликадас.
Какво казват експертите и проучванията

Отвъд конкретния случай, проучване, публикувано в Психиатрични услуги анализираха как реагират три популярни чатбота —ChatGPT (OpenAI), Claude (Anthropic) и Gemini (Google) — на въпроси, свързани със самоубийството. Авторите установиха, че ChatGPT и Claude са склонни да реагирайте адекватно по въпроси с нисък риск и избягваше да предлага директна информация за запитвания с висок риск, докато Gemini показваше по-променлив модел и често избра да не отговори дори когато въпросът беше за по-малка опасност.
Работата обаче също така установи несъответствия по въпроси, свързани със среден риск — например, какъв съвет да дадем на някой с мисли за самонараняване—, редуване на верни отговори с пропускиИзследователите препоръчват повече усъвършенстване чрез техники за съгласуване с клинични експерти и подобрения в откриването на нюанси.
Организации като Common Sense Media призоваха за бъдете внимателни с използването на изкуствен интелект, тъй като компания при юношиСкорошен доклад на организацията показва, че почти трима от всеки четирима млади хора в САЩ са опитвали компаньони с изкуствен интелект. повече от половината биха били чести потребители, което увеличава неотложността на наличието на надеждни рамки за сигурност.
В правната област вниманието на прокурорите и регулаторните органи върху защита на непълнолетни срещу неправилни взаимодействия в чатботове и как да съобщавате за случаи в социалните мрежиНесигурност относно това как отговорността на ИИ се вписва в регулации като например Раздел 230 (правен щит за платформите в САЩ) отваря сложен фронт за съдилищата.
Паралелни дела, като например производства срещу платформи разговорна компания за непълнолетни, все още са в ход и биха могли да установят критерии относно обхвата на дизайна, предупреждението и смекчаване на риска в генеративните системи.
Смъртта на Адам Рейн и делото срещу OpenAI символизират повратна точка: разговорите с изкуствения интелект са се преместили от експериментално към ежедневие, а ролята му в емоционалната сфера изисква по-ясни стандарти. Докато съдилищата определят отговорностите, експерти, семейства и компании са съгласни относно необходимостта от подобряване на гаранциите, да осигурят ефективен родителски контрол и да гарантират, че когато тийнейджър се обърне към чатбот в кризисна ситуация, системата ще реагира с благоразумие, съгласуваност и реални възможности за помощ.
Аз съм технологичен ентусиаст, който е превърнал своите „гийк“ интереси в професия. Прекарах повече от 10 години от живота си, използвайки авангардни технологии и бърникайки с всякакви програми от чисто любопитство. Сега съм специализирал компютърни технологии и видео игри. Това е така, защото повече от 5 години пиша за различни уебсайтове за технологии и видео игри, създавайки статии, които се стремят да ви дадат информацията, от която се нуждаете, на език, разбираем за всички.
Ако имате някакви въпроси, познанията ми варират от всичко свързано с операционната система Windows, както и с Android за мобилни телефони. И моят ангажимент е към вас, винаги съм готов да отделя няколко минути и да ви помогна да разрешите всички въпроси, които може да имате в този интернет свят.