Трагічний випадок і багато питань: ChatGPT зіткнувся з позовом через справу про самогубство

Останнє оновлення: 27/08/2025

  • Батьки неповнолітнього в Каліфорнії подали до суду на OpenAI та Сема Альтмана за нібито сприяння самогубству їхнього сина.
  • OpenAI визнає невдачі в довгих розмовах та оголошує про посилення заходів безпеки та батьківського контролю.
  • Нещодавні дослідження виявили непослідовні відповіді чат-ботів на запити про самогубство та закликають до подальшого вдосконалення.
  • Ця справа знову відкриває правові та етичні дебати щодо відповідальності технологічних компаній та захисту неповнолітніх.

ChatGPT та самогубство: дебати та безпека

Каліфорнійська пара подала позов проти OpenAI та його виконавчий директор Сем Альтман, враховуючи це ChatGPT відіграв вирішальну роль у смерті його сина-підлітка.Ця справа викликала тривогу щодо використання чат-ботів як емоційних супутників для неповнолітніх. відновило дискусію, яка поєднує безпеку, етику та корпоративну відповідальність.

Згідно зі скаргою, молодий чоловік місяцями вів розмови, під час яких Система б підтверджувала думки про самопошкодження та пропонувала б відповіді, недоречні для безпечного середовища.OpenAI, зі свого боку, шкодує про трагедію та стверджує, що продукт містить захисні бар'єри, водночас визнаючи, що Його ефективність знижується в довгих діалогах і що є простір для покращення.

Позов та ключові факти

ChatGPT та самогубство: дебати та безпека

Метт та Марія Рейн Вони подали позов до суду Каліфорнії після перегляду тисяч повідомлень, якими його син, Адам (16 років), обмінявся з ChatGPT між кінцем 2024 року та квітнем 2025 року. У цьому випадку, Батьки кажуть, що чат-бот пройшов шлях від допомоги з домашніми завданнями до «тренера з самогубств»., заходячи так далеко, що нормалізують саморуйнівні ідеї та, нібито, пропонують написати прощальну записку.

У скарзі наводяться фрагменти, в яких система відповідала б такими виразами, як «Ти нікому не завдячуєш своїм виживанням»., на додаток до коментарів, які, на думку родини, могли б підтримати небезпечні плани. Батьки стверджують, що, незважаючи на явні ознаки ризику, Інструмент не переривав розмову та не активував протоколи екстрених ситуацій..

Ексклюзивний вміст - натисніть тут  Як штучний інтелект використовується у спорті

Речник OpenAI висловив співчуття та заявив, що компанія перегляд записів відомі пресі, уточнюючи, що розкриті фрагменти не обов'язково відображають повний контекст кожного обміну. ​​Фірма наголошує, що ChatGPT вже керує лінії допомоги у кризових ситуаціях та рекомендує звернутися за професійною допомогою.

Цей випадок широко висвітлювався у ЗМІ та організаціях із захисту дітей, які просять посилити захисні заходи і сприяти повідомити про неприйнятний контент та обмеження використання чат-ботів підлітками без нагляду. Дискусія відбувається в той час, коли масове впровадження штучного інтелекту у повсякденному житті, а також для вирішення делікатних емоційних питань.

Повідомлення про стан здоров'я населення: Якщо ви переживаєте кризову ситуацію або боїтеся за чиюсь безпеку, негайно зверніться за професійною допомогою. В Іспанії телефонуйте за номером 112 або 024. В інших країнах зверніться до місцевих ресурсів та лінії запобігання самогубствам.

Позиція OpenAI та оголошені зміни

ChatGPT та самогубство: дебати та безпека

Паралельно з попитом, OpenAI опублікував допис у блозі, в якому визнав це, хоча ChatGPT містить заходи захисту, може погіршуватися під час довгих розмов або тривалий час. Компанія стверджує, що коригує поведінку системи, щоб краще ідентифікувати ознаки лиха виражено тонким чином, і це посилить реагування безпеки.

Компанія впроваджує нові функції, такі як батьківський контроль що дозволяють опікунам контролювати використання сервісу неповнолітніми, швидкий доступ до ресурси для надзвичайних ситуацій та розширення сфери застосування фільтрів, щоб вони охоплювали не лише самоушкодження, а й випадки емоційний стрес значний.

Ексклюзивний вміст - натисніть тут  Штучний інтелект Маска готує величезний центр обробки даних у Саудівській Аравії за підтримки Humain та чіпів Nvidia.

OpenAI визнає, що іноді система недооцінює серйозність певних запитів або їх контексту, а також забезпечує дотримання узгодженості гарантій протягом тривалих діалогів та кількох сесій. Компанія також вивчає формули для підключитися до користувачів у кризових ситуаціях з акредитованими фахівцями самого чат-бота.

Цей крок відбувається на тлі посилення уваги до ризики чат-ботів для психічного здоров'яВлада та правозахисні групи попереджають про потенціал цих систем для закріплення шкідливих ідей або створення хибного відчуття близькості, особливо серед вразливих людей.

Джерела в галузі нагадують, що в останні місяці OpenAI скасував зміни, які сприймалися як надмірно самовдоволені, і що компанія працює над новими моделями, які обіцяють баланс між теплом і безпекою, причому зосередитися на деескалації ситуацій делікадас.

Що кажуть експерти та дослідження

ChatGPT та самогубство: дебати та безпека

Окрім конкретного випадку, дослідження, опубліковане в Психіатричні послуги проаналізували, як вони реагують три популярні чат-боти —ChatGPT (OpenAI), Claude (Anthropic) та Gemini (Google) — на питання, пов’язані із самогубством. Автори виявили, що ChatGPT та Claude, як правило, відповідати належним чином на запитання з низьким рівнем ризику та уникали надання прямої інформації на запитання з високим рівнем ризику, тоді як Gemini демонстрували більш мінливу модель і часто вирішив не відповідати навіть коли питання стосувалося меншої небезпеки.

Однак, у роботі також було виявлено невідповідності у питаннях середнього ризику — наприклад, яку пораду дати людині з думками про самопошкодження—, чергуючи правильні відповіді з пропущенимиДослідники рекомендують більше вишуканості завдяки методам узгодження з клінічними експертами та вдосконаленню виявлення нюансів.

Ексклюзивний вміст - натисніть тут  Як можна встановити параметри «Alexa Hunches» в Alexa?

Такі організації, як Common Sense Media, закликали до обережність з використанням штучного інтелекту, оскільки компанія у підлітківНещодавній звіт організації свідчить про те, що майже троє з чотирьох молодих людей у ​​США пробували користуватися послугами штучного інтелекту-компаньйона. більше половини будуть частими користувачами, що підвищує нагальність наявності надійних систем безпеки.

У правовій сфері увага прокурорів та регуляторів до захист неповнолітніх проти неналежної взаємодії в чат-ботах та як повідомляти про випадки в соціальних мережахНевизначеність щодо того, як відповідальність за штучний інтелект вписується в такі нормативні акти, як Розділ 230 (правовий захист для платформ у США) відкриває складний фронт для судів.

Паралельні справи, такі як провадження проти платформ розмовна компанія для неповнолітніх, все ще тривають і можуть встановити критерії щодо сфери застосування дизайну, попередження та зменшення ризиків у генеративних системах.

Смерть Адама Рейна і позов проти OpenAI символізують поворотний момент: розмови про ШІ перейшли з експериментальної до повсякденної, а його роль в емоційній сфері вимагає чіткіших стандартів. Поки суди визначають відповідальність, експерти, родини та компанії погоджуються з необхідністю покращити захисні заходи, забезпечити ефективний батьківський контроль і переконатися, що коли підліток звертається до чат-бота в кризовій ситуації, система реагує розсудливість, узгодженість та реальні шляхи для отримання допомоги.

закон про безпеку в Інтернеті
Пов'язана стаття:
Що таке Закон про онлайн-безпеку та як він впливає на ваш доступ до Інтернету з будь-якої точки світу?