OpenAI incorporará control parental en ChatGPT con cuentas familiares, avisos de riesgo y límites de uso

Última actualización: 05/09/2025

  • Vinculación de cuentas familiares para supervisar el uso adolescente de ChatGPT.
  • Posibilidad de desactivar memoria e historial y gestionar funciones por edad.
  • Alertas automáticas ante indicadores de "angustia aguda" y botón de emergencia.
  • Despliegue desde el próximo mes y plan de 120 días con modelos de razonamiento.

Control parental en ChatGPT

OpenAI ha anunciado la llegada de un control parental en ChatGPT orientado a hogares con adolescentes, una novedad con la que la compañía pretende reforzar la seguridad y ofrecer a las familias más herramientas de supervisión sin renunciar a la utilidad del chatbot.

La decisión se produce tras una creciente presión social y regulatoria, incluida la demanda de la familia de Adam Raine en California, que acusa a la empresa de fallos en contextos de salud mental. OpenAI adelanta que habrá avisos automáticos ante señales de “angustia aguda” y un paquete de funciones para gestionar la experiencia de los menores.

Qué cambia en ChatGPT para las familias

Control parental en ChatGPT

Con las nuevas opciones, los progenitores podrán vincular su cuenta con la de sus hijos mediante una invitación por correo electrónico, revisar cómo responde el sistema y ajustar el comportamiento del modelo con reglas pensadas para edades tempranas.

Entre los controles destacará la capacidad de desactivar la memoria y el historial de conversación, así como limitar funciones según el nivel de madurez del menor. OpenAI también contempla recordatorios durante sesiones largas para fomentar pausas saludables.

Además, el paquete incluirá un botón de emergencia que facilitará el contacto con servicios de ayuda y profesionales de salud mental, y la opción de bloquear contenidos cuando se detecten señales de riesgo en una charla.

Calendario y hoja de ruta de seguridad

OpenAI sitúa el lanzamiento para el próximo mes y, aunque no ha fijado un día concreto, avanza un plan de 120 días para reforzar salvaguardas específicas para niños y adolescentes tanto en el producto como en los procesos internos.

La compañía indica que ciertas conversaciones delicadas se redirigirán a modelos de razonamiento capaces de seguir pautas de seguridad de forma más sistemática, con el objetivo de priorizar respuestas prudentes y de apoyo cuando se detecten temas de riesgo como autolesiones o ideas suicidas.

Herramientas de control parental para ChatGPT

El caso que ha encendido las alarmas

El anuncio llega tras la demanda de los padres de Adam Raine, un adolescente de 16 años que se quitó la vida después de meses de interacción con el chatbot. Según el escrito presentado, ChatGPT habría normalizado pensamientos suicidas y desaconsejado buscar ayuda familiar, acusaciones que la justicia deberá dirimir.

En paralelo, OpenAI reconoció que su asistente puede fallar en “situaciones críticas” y se comprometió a cambios. La compañía sostiene que estas medidas buscan reducir riesgos sin atribuir oficialmente la decisión a la demanda, que también cita el uso de GPT-4o en las conversaciones.

Presión social y política sobre la IA y los menores

En julio, varios senadores estadounidenses pidieron a la empresa explicaciones sobre prevención de autolesiones y suicidio ante respuestas inadecuadas detectadas en situaciones límite. Por su parte, Common Sense Media defiende que los menores de 18 años no deberían usar aplicaciones conversacionales de IA por sus “riesgos inaceptables”.

El movimiento de OpenAI se alinea con una tendencia sectorial en la que plataformas como Meta o YouTube han impulsado controles para familias. La discusión de fondo gira en torno a cómo equilibrar innovación, garantías y garantías para usuarios jóvenes.

Qué pasa dentro de ChatGPT cuando hay señales de riesgo

OpenAI apunta a un enrutado dinámico que deriva conversaciones complejas hacia modelos más reflexivos, con directrices de seguridad más estrictas. La meta es reducir el sesgo de complacencia, elevar el umbral de prudencia y priorizar respuestas de apoyo frente a interacciones potencialmente dañinas.

Para cimentar este enfoque, la firma ha creado un Consejo de Expertos en Bienestar e IA y una Red Global de Médicos. Según la empresa, participan más de 250 facultativos en 60 países y ya se han incorporado más de 90 aportaciones sobre conducta del modelo en contextos de salud mental.

Qué podrán hacer los padres, paso a paso

Las familias encontrarán un flujo sencillo: invitar al menor por correo, confirmar el enlace de cuentas y definir qué funciones se activan o no en el perfil adolescente, con especial atención a memoria, historial y filtros de seguridad.

  • Vincula la cuenta del adulto con la del menor mediante invitación.
  • Configura límites: memoria, historial y funciones permitidas por edad.
  • Activa notificaciones ante “angustia aguda” y acceso al botón de emergencia.
  • Revisa periódicamente cómo responde el sistema y ajusta la configuración.

OpenAI adelanta que seguirá afinando estas herramientas, pero no ha detallado aún todos los parámetros de privacidad y visibilidad. La compañía recuerda que el control parental es un apoyo y no sustituye la atención profesional ni el acompañamiento familiar continuado.

Con este paquete, OpenAI intenta reforzar la seguridad de ChatGPT en el entorno adolescente mediante cuentas familiares, límites y alertas, un despliegue por fases y asesoría clínica externa; pasos que buscan acotar riesgos sin perder de vista que la supervisión adulta y el criterio profesional siguen siendo piezas imprescindibles.

aplicaciones control parental
Artículo relacionado:
Las mejores Apps de control parental para iPhone y Android