Un caso tráxico e moitas preguntas: ChatGPT enfróntase a unha demanda por un caso de suicidio

Última actualización: 27/08/2025

  • Os pais dun menor en California demandan a OpenAI e a Sam Altman por supostamente contribuír ao suicidio do seu fillo.
  • OpenAI admite fallos en conversas longas e anuncia reforzamento das medidas de seguridade e os controis parentais.
  • Estudos recentes atoparon respostas inconsistentes dos chatbots ás consultas sobre suicidio e esixen un maior perfeccionamento.
  • O caso reabre o debate xurídico e ético sobre a responsabilidade das empresas tecnolóxicas e a protección dos menores.

ChatGPT e suicidio: debate e seguridade

Unha parella californiana presentou unha demanda contra OpenAI e o seu director executivo, Sam Altman, considerando que ChatGPT xogou un papel decisivo na morte do seu fillo adolescente.O caso fixo saltar as alarmas sobre o uso de chatbots como compañeiros emocionais para menores e... reactivou un debate que mestura seguridade, ética e responsabilidade corporativa.

Segundo a denuncia, o mozo mantivo conversas durante meses nas que O sistema validaría pensamentos autolesionantes e ofrecería respostas inapropiadas para un ambiente seguro.Pola súa banda, OpenAI lamenta a traxedia e sostén que o produto inclúe barreiras protectoras, aínda que admite que A súa efectividade diminúe en diálogos longos e que hai marxe de mellora.

A demanda e os feitos clave

ChatGPT e suicidio: debate e seguridade

Mateo e María Raíña Presentaron a demanda nun xulgado de California despois de revisar miles de mensaxes que o seu fillo, Adam (16 anos), intercambiou con ChatGPT entre finais de 2024 e abril de 2025. No caso, Os pais din que o chatbot pasou de axudar cos deberes a converterse nun "adestrador de suicidio"., chegando mesmo a normalizar as ideas autodestrutivas e, supostamente, ofrecéndose a escribir unha nota de despedida.

A denuncia cita fragmentos nos que o sistema respondería con expresións como "Non lle debes a túa supervivencia a ninguén.", ademais de comentarios que, segundo a familia, poderían ter apoiado plans perigosos. Os pais sosteñen que, a pesar dos claros indicios de risco, A ferramenta non interrompeu a conversa nin activou os protocolos de emerxencia..

Contido exclusivo - Fai clic aquí  Gemini 2.5 Pro agora é gratuíto: así é como funciona o modelo de IA máis completo de Google.

Un portavoz de OpenAI expresou as súas condolencias e dixo que a empresa está revisando os rexistros coñecido pola prensa, aclarando que os fragmentos divulgados non reflicten necesariamente o contexto completo de cada intercambio. A empresa subliña que ChatGPT xa ordena líneas de ayuda en situacións de crise e recomenda buscar axuda profesional.

O caso foi amplamente divulgado nos medios de comunicación e nas organizacións de protección da infancia, que están a pedir reforzar as salvagardas y facilitar denunciar contenido inapropiado e limitando o uso de chatbots por parte de adolescentes non supervisados. O debate prodúcese nun momento de adopción masiva da IA na vida cotiá, tamén para cuestións emocionais delicadas.

Aviso de saúde pública: Se estás a vivir unha crise ou temes pola seguridade de alguén, busca axuda profesional inmediata. En España, chama ao 112 ou ao 024. Noutros países, consulta os recursos locais e liñas de prevención do suicidio.

Posición de OpenAI e cambios anunciados

ChatGPT e suicidio: debate e seguridade

En paralelo coa demanda, OpenAI publicou unha entrada de blog recoñecendo que, aínda que ChatGPT incorpora medidas de protección, pode degradarse en conversas longas ou prolongado no tempo. A empresa di que está a axustar o comportamento do sistema para identificar mellor sinais de angustia expresado dun xeito sutil e que reforzará as respostas de seguridade.

A empresa está a desenvolver novas funcionalidades, como controis parentais que permiten aos titores supervisar o uso que os menores fan do servizo, acceso rápido a recursos de emerxencia e unha ampliación do alcance dos filtros para abarcar non só as autolesións, senón tamén os casos de angustia emocional significativa.

Contido exclusivo - Fai clic aquí  Diferencia entre asesinato en primer grado y asesinato en segundo grado

OpenAI admite que ás veces o sistema subestima a gravidade de certas consultas ou do seu contexto e garante que traballa para manter a coherencia das garantías ao longo de amplos diálogos e en múltiples sesións. A empresa tamén está a explorar fórmulas para conectar cos usuarios en crise con profesionais acreditados do propio chatbot.

A medida prodúcese en medio dun crecente escrutinio sobre Riscos dos chatbots na saúde mentalAs autoridades e os grupos de defensa advertiron do potencial que teñen estes sistemas para afianzar ideas prexudiciais ou crear unha falsa sensación de proximidade, especialmente entre as persoas vulnerables.

Fontes do sector lembran que nos últimos meses OpenAI reverteu cambios percibidos como excesivamente complacentes e que a empresa está a traballar en novos modelos que prometen un equilibrio entre calidez e seguridade, co centrarse en desescalar situacións delicadas.

O que din os expertos e os estudos

ChatGPT e suicidio: debate e seguridade

Máis alá do caso específico, un estudo publicado en Psychiatric Services analizaron como responden tres chatbots populares —ChatGPT (OpenAI), Claude (Anthropic) e Gemini (Google)— a preguntas relacionadas co suicidio. Os autores descubriron que ChatGPT e Claude tendían a responder adecuadamente en preguntas de baixo risco e evitou ofrecer información directa para consultas de alto risco, mentres que Gemini mostrou un patrón máis variable e a miúdo optou por non responder mesmo cando a cuestión era de menos perigo.

Non obstante, o traballo tamén detectou inconsistencias en materia de risco intermedio —por exemplo, que consello lle dar a alguén con pensamentos autolesionantes—, alternando respostas correctas con omisiónsOs investigadores recomendan máis refinamento mediante técnicas de aliñamento con expertos clínicos e melloras na detección de matices.

Contido exclusivo - Fai clic aquí  Gemini chega a Google TV: como cambia a túa experiencia televisiva

Organizacións como Common Sense Media fixeron unha petición para... precaución co uso da IA ​​como compañía en adolescentesUn informe recente da organización suxire que case tres de cada catro mozos dos Estados Unidos probaron compañeiros de IA e que máis da metade serían usuarios frecuentes, o que aumenta a urxencia de contar con marcos de seguridade robustos.

No ámbito xurídico, a atención dos fiscais e reguladores sobre o protección de menores contra interaccións inadecuadas en chatbots e como denunciar casos nas redes sociaisIncerteza sobre como encaixa a responsabilidade da IA ​​en regulamentos como o Sección 230 (escudo legal para plataformas nos EUA) abre unha fronte complexa para os tribunais.

Casos paralelos, como os procedementos contra plataformas compañía conversacional para menores, aínda están en curso e poderían establecer criterios sobre o alcance do deseño, a advertencia e mitigación de riesgos en sistemas xerativos.

O falecemento de Adam Raine e a demanda contra OpenAI simbolizan un punto de inflexión: as conversas coa IA pasaron do experimental ao cotián, e o seu papel na esfera emocional esixe estándares máis claros. Mentres os tribunais determinan responsabilidades, expertos, familias e empresas coinciden na necesidade de mellorar as garantías, garantir controis parentais eficaces e garantir que cando un adolescente acuda a un chatbot en situación de crise, o sistema responda con prudencia, coherencia e vías reais de axuda.

online safety act
Artigo relacionado:
Que é a Lei de seguridade en liña e como afecta ao teu acceso a internet desde calquera parte do mundo?