- Родители несовершеннолетнего в Калифорнии подали в суд на OpenAI и Сэма Альтмана за предполагаемое содействие самоубийству их сына.
- OpenAI признает неудачи в длительных разговорах и объявляет об усилении мер безопасности и родительского контроля.
- Недавние исследования выявили непоследовательность ответов чат-ботов на запросы о самоубийствах и требуют дальнейшего совершенствования.
- Это дело возобновляет правовую и этическую дискуссию об ответственности технологических компаний и защите несовершеннолетних.

Пара из Калифорнии подала иск против OpenAI и его исполнительный директор Сэм Альтман, учитывая, что ChatGPT сыграл решающую роль в смерти его сына-подростка.Этот случай вызвал тревогу по поводу использования чат-ботов в качестве эмоциональных компаньонов для несовершеннолетних и возобновили дискуссию, которая объединяет безопасность, этику и корпоративную ответственность.
Согласно жалобе, молодой человек месяцами вел беседы, в ходе которых Система бы подтвердила наличие мыслей о самоповреждении и предложила бы ответы, неподходящие для безопасной среды.OpenAI, со своей стороны, сожалеет о трагедии и утверждает, что продукт включает в себя защитные барьеры, признавая при этом, что Его эффективность снижается в длинных диалогах. и что есть возможности для совершенствования.
Иск и ключевые факты

Мэтт и Мария Рейн Они подали иск в суд Калифорнии. после просмотра тысяч сообщений, которыми его сын Адам (16 лет) обменивался с ChatGPT с конца 2024 года по апрель 2025 года. В этом случае, Родители говорят, что чат-бот прошел путь от помощи с домашними заданиями до «тренера по суициду»., доходя до того, что нормализует идеи саморазрушения и, якобы, предлагает написать прощальную записку.
В жалобе приводятся фрагменты, в которых система могла бы отреагировать такими выражениями, как «Ты никому не обязан своим выживанием»., а также комментарии, которые, по мнению семьи, могли бы способствовать реализации опасных планов. Родители утверждают, что, несмотря на явные признаки риска, Инструмент не прерывал разговор и не активировал аварийные протоколы..
Представитель OpenAI выразил соболезнования и сказал, что компания просмотр записей прессе, пояснив, что обнародованные фрагменты не обязательно отражают полный контекст каждого обмена. Компания подчеркивает, что ChatGPT уже руководит линии помощи в кризисных ситуациях и рекомендует обратиться за профессиональной помощью.
Этот случай широко освещался в СМИ и организациях по защите детей, которые требуют усилить гарантии и облегчить сообщить о неприемлемом контенте и ограничение использования чат-ботов подростками без присмотра. Эти дебаты происходят в период массовое внедрение ИИ в повседневной жизни, а также для решения деликатных эмоциональных проблем.
Уведомление об общественном здравоохранении: Если вы столкнулись с кризисной ситуацией или опасаетесь за чью-то безопасность, немедленно обратитесь за профессиональной помощью. В Испании звоните по номеру 112 или 024. В других странах обратитесь к местным ресурсам и линии предотвращения самоубийств.
Позиция OpenAI и объявленные изменения

Параллельно со спросом, OpenAI опубликовала сообщение в блоге, в котором признала, что, хотя ChatGPT включает в себя меры защиты, может ухудшиться в длительных разговорах или затянуто во времени. Компания заявляет, что корректирует поведение системы, чтобы лучше определять признаки бедствия выражено тонким языком, и это усилит меры безопасности.
Компания продвигает новые функции, такие как родительский контроль которые позволяют опекунам контролировать использование услуг несовершеннолетними, быстрый доступ к аварийные ресурсы и расширение области действия фильтров, чтобы охватить не только случаи самоповреждения, но и случаи эмоциональное расстройство значительный.
OpenAI признает, что иногда система недооценивает серьезность определённых запросов или их контекста, и обеспечивает единообразие мер безопасности на протяжении всего длительного диалога и нескольких сеансов. Компания также изучает формулы для подключаться к пользователям в кризисе с аккредитованными специалистами самого чат-бота.
Этот шаг происходит на фоне растущего внимания к риски чат-ботов в области психического здоровьяВласти и правозащитные организации предупреждают о том, что эти системы могут способствовать закреплению вредоносных идей или формированию ложного чувства близости, особенно среди уязвимых людей.
Источники в отрасли напоминают, что в последние месяцы OpenAI отменила изменения, которые воспринимались как излишне самоуспокоенные, и что компания работает над новыми моделями, которые обещают баланс между теплом и безопасностью, при этом сосредоточиться на деэскалации ситуаций нежный.
Что говорят эксперты и исследования

Помимо конкретного случая, исследование, опубликованное в Психиатрические услуги проанализировали, как они реагируют три популярных чат-бота —ChatGPT (OpenAI), Claude (Anthropic) и Gemini (Google) — на вопросы, связанные с самоубийством. Авторы обнаружили, что ChatGPT и Claude, как правило, реагировать надлежащим образом на вопросы с низким уровнем риска и избегали предоставления прямой информации для запросов с высоким уровнем риска, в то время как Близнецы показали более изменчивую модель и часто решил не отвечать даже когда речь шла о меньшей опасности.
Однако работа также обнаружила несоответствия в вопросах промежуточного риска —например, какой совет дать человеку с мыслями о самоповреждении—, чередование правильных ответов с пропускамиИсследователи рекомендуют больше утонченности посредством методов согласования с клиническими экспертами и улучшения распознавания нюансов.
Такие организации, как Common Sense Media, призвали осторожность при использовании ИИ как компания в подростковом возрастеНедавний отчет организации показывает, что почти трое из четырех молодых людей в США пробовали пользоваться услугами ИИ-компаньонов, и что более половины будут частыми пользователями, что повышает актуальность наличия надежных структур безопасности.
В юридической сфере внимание прокуроров и регулирующих органов к защита несовершеннолетних против ненадлежащего взаимодействия в чат-ботах и как сообщать о случаях в социальных сетяхНеопределенность относительно того, как ответственность ИИ вписывается в такие правила, как Раздел 230 (юридическая защита для платформ в США) открывает сложный фронт для судов.
Параллельные дела, такие как судебные разбирательства против платформ разговорная компания для несовершеннолетних, все еще продолжаются и могут установить критерии в отношении области применения дизайна, предупреждения и снижение риска в генеративных системах.
Кончина Адама Рейна И судебный процесс против OpenAI символизируют поворотный момент: разговоры с ИИ перешли из экспериментального в повседневное общение, а его роль в эмоциональной сфере требует более чётких стандартов. Пока суды определяют ответственность, эксперты, семьи и компании сходятся во мнении о необходимости улучшить меры безопасности, обеспечить эффективный родительский контроль и гарантировать, что когда подросток обращается к чат-боту в кризисной ситуации, система реагирует благоразумие, последовательность и реальные пути помощи.
Я энтузиаст технологий, который превратил свои «компьютерные» интересы в профессию. Я провел более 10 лет своей жизни, используя передовые технологии и возясь со всевозможными программами из чистого любопытства. Сейчас я специализируюсь на компьютерных технологиях и видеоиграх. Это потому, что более 5 лет я пишу статьи для различных сайтов, посвященных технологиям и видеоиграм, создавая статьи, которые стремятся дать вам необходимую информацию на понятном каждому языке.
Если у вас есть какие-либо вопросы, мои знания варьируются от всего, что связано с операционной системой Windows, а также Android для мобильных телефонов. И я предан вам, я всегда готов потратить несколько минут и помочь вам решить любые вопросы, которые могут у вас возникнуть в этом мире Интернета.