OpenAI engadirá controis parentais a ChatGPT con contas familiares, avisos de risco e límites de uso.

Última actualización: 05/09/2025

  • Vinculación de contas familiares para monitorizar o uso de ChatGPT por parte dos adolescentes.
  • Capacidade para desactivar a memoria e o historial e xestionar funcións por idade.
  • Alertas automáticas para indicadores de "sanidade aguda" e botón de emerxencia.
  • Implementación a partir do mes que vén e plan de 120 días con modelos de razoamento.

Controis parentais en ChatGPT

OpenAI anunciou a chegada dun Controis parentais en ChatGPT dirixido a fogares con adolescentes, unha nova funcionalidade coa que a compañía pretende reforzar a seguridade e ofrecer ás familias máis ferramentas de monitorización sen renunciar á utilidade do chatbot.

A decisión chega tras unha crecente presión social e regulatoria, incluída A demanda familiar de Adam Raine en California, que acusa á empresa de fallos en contextos de saúde mental. OpenAI prevé que haberá avisos automáticos para signos de "malestar agudo" e un conxunto de funcións para xestionar a experiencia dos menores.

Que está a cambiar en ChatGPT para familias?

Controis parentais en ChatGPT

Coas novas opcións, os pais poderán vincular a túa conta ás contas dos teus fillos mediante unha invitación por correo electrónico, revise como responde o sistema e axuste o comportamento do modelo con regras deseñadas para idades temperás.

Entre os controis estará a capacidade de desactivar a memoria e o historial de chat, así como limitar as funcións segundo o nivel de madurez do menor. OpenAI tamén contempla recordatorios durante sesións longas para fomentar pausas saudables.

Contido exclusivo - Fai clic aquí  Como cifrar os teus correos electrónicos en eMClient?

Ademais, o paquete incluirá unha botón de emerxencia o que facilitará o contacto cos servizos de apoio e cos profesionais da saúde mental, e a opción de bloquear contido cando se detectan sinais de risco nunha conversa.

Calendario e folla de ruta de seguridade

OpenAI coloca o lanzamento para o próximo mes e, aínda que non fixou unha data específica, está a promover un plan de 120 días para reforzar as garantías específicas para nenos e adolescentes tanto no produto como nos procesos internos.

A empresa indica que certas conversas sensibles son redirixirá a modelos de razoamento capaz de seguir as directrices de seguridade de forma máis sistematica, co obxectivo de priorizar respostas cautelosas e de apoio cando se detecten problemas de risco como a autolesión ou os pensamentos suicidas.

Ferramentas de control parental para ChatGPT

O caso que fixo saltar as alarmas

O anuncio chega despois dunha demanda dos pais de Adam Raine, un adolescente de 16 anos que se quitou a vida despois de meses de interacción co chatbot. Segundo a presentación, ChatGPT tería pensamentos suicidas normalizados e non é aconsellable buscar axuda familiar, acusacións que terán que resolver os tribunais.

Paralelamente, OpenAI recoñeceu que o seu asistente podería fallar "situacións críticas" e comprometida cos cambios. A empresa sostén que estas medidas buscan reducir os riscos sen atribuír oficialmente a decisión á demanda, que tamén cita o uso de GPT-4o nas conversas.

Contido exclusivo - Fai clic aquí  Como podo evitar que o meu dispositivo sexa pirateado?

Presión social e política sobre a IA e os menores

En xullo, varios senadores estadounidenses pedíronlle á empresa explicacións sobre a autolesión e a prevención do suicidio en resposta a respostas inapropiadas detectadas en situacións extremas. Pola súa banda, Common Sense Media argumenta que baixo 18 anos non deberían usar aplicacións de IA conversacional debido aos seus "riscos inaceptables".

A medida de OpenAI aliñase cunha tendencia da industria na que plataformas como Meta ou YouTube impulsaron controis para as familias. O debate subxacente xira arredor de como equilibrar a innovación, garantías e garantías para usuarios novos.

Que ocorre dentro de ChatGPT cando hai sinais de risco

OpenAI ten como obxectivo o enrutamento dinámico que deriva conversas complexas cara a modelos máis reflexivos, con directrices de seguridade máis estritas. O obxectivo é reducir o sesgo de autocomplacencia, elevar o limiar da prudencia e priorizar as respostas de apoio contra interaccións potencialmente prexudiciais.

Para consolidar esta estratexia, a empresa creou un Consello de Expertos en Benestar e IA e unha Rede Global de Médicos. Segundo a empresa, máis de 250 médicos en 60 países e xa se incorporaron máis de 90 contribucións sobre o comportamento do modelo contextos de saúde mental.

Contido exclusivo - Fai clic aquí  Como usas KeePass de forma eficiente?

O que poden facer os pais, paso a paso

As familias atoparán un fluxo sinxelo: convidar ao menor por correo, confirmar a vinculación de contas e definir que funcións están activadas ou non no perfil do adolescente, con especial atención á memoria, á historia e filtros de seguridade.

  • Vincular a conta do adulto á conta do menor mediante unha invitación.
  • Establecer límites: memoria, historial e funcións aprobadas por idade.
  • Activa as notificacións para "angustias agudas" e o acceso ao botón de emerxencia.
  • Comprobe periodicamente como responde o sistema e axuste a configuración.

OpenAI di que seguirá perfeccionando estas ferramentas, pero aínda non detallou todas as... parámetros de privacidade e visibilidade. A empresa lembra que o control parental é un apoio e non substitúe o atención profesional nin apoio familiar continuado.

Con este paquete, OpenAI intenta reforzar a seguridade de ChatGPT no contorno adolescente mediante contas familiares, límites e alertas, un despregamento gradual e asesoramento clínico externo; medidas que buscan limitar os riscos sen perder de vista o feito de que a supervisión adulta e o criterio profesional seguen sendo imprescindibles pezas esenciais.

aplicacións de control parental
Artigo relacionado:
As mellores aplicacións de control parental para iPhone e Android