ChatGPT prepara su modo adulto: menos filtros, más control y un gran reto con la edad

Última actualización: 16/12/2025

  • OpenAI lanzará el modo adulto de ChatGPT a partir del primer trimestre de 2026, tras retrasar la fecha inicial prevista para diciembre.
  • La compañía prueba un modelo de predicción y verificación de edad que debe diferenciar con precisión entre adolescentes y adultos antes de desbloquear el nuevo modo.
  • El modo adulto permitirá contenido más personal, sensual y potencialmente erótico para usuarios verificados, con políticas reforzadas para proteger a los menores.
  • La iniciativa llega en un contexto de presión regulatoria y debate ético sobre salud mental, vínculos emocionales con chatbots y responsabilidad de las grandes tecnológicas.
ChatGPT Adulto

El sector de la inteligencia artificial generativa se prepara para un cambio delicado: la llegada del modo adulto de ChatGPT, una configuración pensada para relajar parte de los filtros actuales y permitir conversaciones más subidas de tono, siempre limitada a mayores de edad. Esta función, largamente rumoreada y ya oficializada por OpenAI, pretende responder a las quejas de quienes consideran que el asistente se había vuelto excesivamente conservador, sobre todo tras las últimas actualizaciones del modelo.

La empresa de Sam Altman ha confirmado que este modo no se activará hasta que su sistema sea capaz de verificar la edad de cada usuario. Ya no bastará con pulsar la clásica casilla de “sí, soy mayor de 18 años”: el acceso a determinados contenidos en ChatGPT dependerá de una combinación de modelos de IA, análisis de comportamiento y políticas de seguridad reforzadas, con el objetivo de dejar fuera a menores y ofrecer más margen de maniobra a los adultos.

Un lanzamiento pospuesto hasta 2026 para afinar los controles

Modo adulto ChatGPT 2026

OpenAI ha repetido en varias ocasiones que su prioridad es no cometer errores en la protección de menores, y eso ha pasado factura al calendario. Aunque Altman llegó a anunciar públicamente que el modo adulto estaría listo para diciembre, la compañía ha movido la fecha y ahora sitúa su estreno durante el primer trimestre de 2026. El retraso se debe, según sus directivos, a la necesidad de mejorar el sistema de predicción de edad que servirá de puerta de entrada a la nueva experiencia.

Fidji Simo, responsable de Aplicaciones de OpenAI, ha explicado en varios encuentros con la prensa que la empresa se encuentra en las primeras fases de prueba de su modelo de estimación etaria. Este modelo no se limita a preguntar al usuario, sino que intenta inferir automáticamente si se trata de un menor, un adolescente o un adulto, para decidir qué tipo de contenido es adecuado en cada caso.

La compañía ya está realizando pruebas en ciertos países y mercados, analizando hasta qué punto el sistema acierta al identificar a adolescentes sin confundirlos con adultos. Este punto es especialmente sensible: un falso positivo que deje pasar a un menor podría derivar en problemas legales y reputacionales, mientras que un falso negativo que bloquee de forma sistemática a usuarios mayores dañaría la experiencia y la confianza en el producto.

Al mismo tiempo, OpenAI intenta cumplir con un entorno normativo cada vez más exigente, tanto en Estados Unidos como en Europa, donde avanzan leyes que obligan a reforzar los mecanismos de verificación de edad y la supervisión del contenido sensible. El modo adulto, por tanto, no se concibe como una simple función adicional, sino como un elemento que tendrá que encajar en un puzle regulatorio complejo.

Contenido exclusivo - Clic Aquí  ChatGPT no funciona: causas de la caída, errores frecuentes y el impacto global en los usuarios

Qué pretende ofrecer exactamente el modo adulto

ChatGPT modo adulto

Una de las grandes dudas gira en torno a qué tipo de contenido permitirá realmente ChatGPT cuando el modo adulto esté disponible. OpenAI partía de unas políticas muy restrictivas que vetaban casi cualquier referencia erótica, incluso en contextos claramente informativos, literarios o consensuados entre adultos. Con el nuevo modo, la compañía se abre a flexibilizar parte de esas normas, aunque todavía no ha detallado hasta dónde.

La idea general que Simo y Altman han trasladado es que los adultos verificados podrán acceder a conversaciones más personales, sensuales, románticas e incluso eróticas, con un uso del lenguaje menos edulcorado cuando el contexto y la petición del usuario lo justifiquen. Eso incluiría, por ejemplo, escenas de ficción para novelas románticas o explicaciones sobre sexualidad planteadas de forma directa, sin que el asistente se bloquee de inmediato.

Desde la compañía insisten en que no se trata de convertir el chatbot en una plataforma sin reglas, sino de darle la vuelta a un enfoque que muchos usuarios describían como “aséptico”. La consigna que Altman ha repetido es “tratar a los usuarios adultos como adultos”, permitiendo mayor libertad creativa y expresión, pero bajo un marco de seguridad reforzado para evitar abusos o accesos indebidos de menores.

Todavía queda por concretar qué material será considerado erótico permitido y qué seguirá estando prohibido por considerarse dañino, ilegal o contrario a las políticas internas. Ese límite será clave, tanto para el uso cotidiano como para los autores de contenido, guionistas o creadores que han presionado para poder trabajar con escenas más explícitas sin encontrarse con bloqueos constantes.

La pieza clave: una IA que intenta adivinar tu edad

Modo adulto de ChatGPT

Para hacer posible esta separación entre experiencias infantiles, juveniles y adultas, OpenAI está desarrollando un sistema de verificación y predicción de edad basado en inteligencia artificial. El objetivo es alejarse de los métodos tradicionales, como la simple declaración del usuario o el reconocimiento facial, que plantean problemas de privacidad, fiabilidad y aceptación social, sobre todo en Europa.

En su lugar, la empresa está probando un modelo que analiza la forma de expresarse, los temas que plantea el usuario y sus patrones de interacción con el chatbot. A partir de esa información, el sistema calcula si es probable que se trate de un menor, un adolescente o un adulto y, en función de ese resultado, activa unas u otras políticas de contenido.

Este enfoque tiene ventajas evidentes en términos de comodidad, al no requerir que el usuario envíe documentos o imágenes, pero también entraña riesgos técnicos y legales. Un error puede implicar que un menor acceda a contenido para adultos o que un adulto se vea sistemáticamente encasillado en una experiencia “para menores”, lo que genera quejas, pérdida de confianza y, potencialmente, sanciones regulatorias.

La propia OpenAI admite que prefiere pecar de exceso de prudencia. Cuando el sistema no pueda determinar con claridad la edad del usuario, la experiencia por defecto será la de un entorno seguro para menores de 18 años, con las mismas restricciones estrictas que hasta ahora. Solo cuando el modelo esté razonablemente seguro de que se trata de un adulto se permitirá activar el modo adulto y sus funciones asociadas.

En Europa, este tipo de solución deberá convivir con marcos normativos como el Reglamento de Servicios Digitales (DSA) y las normativas sobre protección de menores y privacidad, que exigen transparencia sobre cómo se toman las decisiones automatizadas y qué datos se utilizan para inferir características tan sensibles como la edad.

Contenido exclusivo - Clic Aquí  Todo lo que sabemos sobre GPT-5: novedades, fecha y cómo transformará la inteligencia artificial

Riesgos psicológicos y vínculos emocionales con el chatbot

Más allá de la dimensión técnica, uno de los puntos que más debate está generando es el impacto que puede tener un chatbot más permisivo en la salud mental y los vínculos emocionales de los usuarios. Estudios recientes recogidos en revistas como el Journal of Social and Personal Relationships apuntan a que los adultos que establecen lazos afectivos fuertes con asistentes virtuales son más proclives a experimentar niveles más altos de angustia psicológica.

Investigaciones paralelas sugieren que las personas con menos relaciones sociales presenciales tienden a apoyarse más en chatbots para obtener compañía, consejo o validación emocional. En ese contexto, un modo adulto que permita conversaciones íntimas, coqueteo o contenido erótico podría profundizar esa dependencia, especialmente si el sistema adopta una personalidad muy empática y adaptable.

OpenAI no es ajena a estas preocupaciones. La empresa ha reconocido que hay usuarios que llegan a desarrollar apego emocional hacia ChatGPT, hasta el punto de utilizarlo como principal espacio de desahogo. Como respuesta, la compañía ha impulsado iniciativas internas y consejos de expertos en bienestar digital para orientar el diseño de los modelos hacia interacciones más seguras, intentando evitar que el chatbot se presente como sustituto de apoyo profesional o de relaciones humanas reales.

En este contexto, la apertura a un modo adulto plantea una tensión evidente: por un lado, se busca respetar la autonomía de los adultos para decidir cómo quieren interactuar con la IA; por otro, se reconoce que la tecnología sigue siendo relativamente nueva y que se conocen aún poco sus efectos a largo plazo en la psicología colectiva.

El equilibrio entre ofrecer libertad y evitar dinámicas de dependencia o daño emocional será uno de los aspectos más observados por reguladores, psicólogos y organizaciones de protección al consumidor, especialmente en países de la Unión Europea donde estos debates llevan años sobre la mesa.

Presión regulatoria y comparación con otros actores del sector

El anuncio del modo adulto llega en un momento en el que las grandes tecnológicas están en el punto de mira de reguladores y opinión pública por el modo en que sus sistemas interactúan con menores. Casos como el de los asistentes de Meta, que habrían mantenido conversaciones de contenido sexual con usuarios adolescentes, han puesto de manifiesto que los mecanismos tradicionales de control de edad no son suficientes, como muestran casos de juguetes y chatbots bajo la lupa.

OpenAI, que ya afronta demandas y escrutinio por el impacto de sus productos, intenta mostrarse como un actor relativamente prudente frente a algunos de sus competidores. Mientras la compañía retrasa su modo adulto hasta contar con un sistema de verificación más sólido, otros servicios de IA conversacional han avanzado por caminos menos restrictivos.

Herramientas como Grok, de xAI, o plataformas de personajes virtuales como Character.AI han experimentado con interacciones románticas y “waifus” virtuales que coquetean con el usuario, convirtiendo el contenido subido de tono en un gancho comercial importante. También existen modelos de código abierto que pueden ejecutarse en local, sin supervisión corporativa, lo que permite generar contenido para adultos sin prácticamente filtros.

Contenido exclusivo - Clic Aquí  Google Fotos integra Nano Banana con nuevas funciones de IA

En paralelo, se han conocido casos en los que sistemas de grandes plataformas, como algunos modelos de Meta, han mantenido conversaciones subidas de tono con menores, alimentando el debate sobre si estas compañías están haciendo lo suficiente para proteger a los usuarios jóvenes o si, por el contrario, están avanzando demasiado deprisa con funciones potencialmente peligrosas.

OpenAI se mueve en ese terreno intermedio: quiere competir en funcionalidades y libertad con otros actores del sector, pero a la vez necesita demostrar a los reguladores y a la opinión pública que su enfoque prioriza la seguridad. El éxito o fracaso del modo adulto se medirá tanto por la satisfacción de los usuarios como por la ausencia de escándalos graves vinculados a su uso.

Qué puede esperar el usuario cuando el modo adulto llegue a España y Europa

Modo adulto en ChatGPT

Cuando el modo adulto de ChatGPT esté plenamente operativo, el despliegue se hará de forma gradual en distintas regiones, algo especialmente sensible en España y el resto de la Unión Europea, donde las normas sobre privacidad, protección de menores y transparencia algorítmica son más estrictas que en otros mercados.

Es previsible que, para activar el modo adulto, los usuarios tengan que pasar por un proceso de verificación que combine la predicción automática de edad con ciertos pasos adicionales de confirmación. En función de las exigencias regulatorias locales, podría introducirse alguna forma de validación documental o mediante terceros de confianza, aunque OpenAI aún no ha concretado detalles para el mercado europeo.

Una vez activado, el usuario adulto debería notar respuestas menos censuradas en temas de sexualidad, relaciones, afectividad y ficción erótica, siempre dentro de unos límites marcados por la ley y las políticas internas de la compañía. Es probable que se apliquen advertencias visibles sobre el tipo de contenido que se va a generar, así como opciones para desactivar el modo en cualquier momento.

En paralelo, los menores que usen ChatGPT en España y Europa se encontrarán con una experiencia más acotada y supervisada, con bloqueos automáticos de contenido sexual explícito y de otros materiales considerados dañinos. En casos extremos, el sistema podría activar protocolos de alerta o facilitar la intervención de fuerzas de seguridad si detecta riesgos graves para la integridad del usuario.

La compañía tiene por delante el reto de explicar con claridad cómo toma decisiones su sistema de predicción de edad, qué datos recoge, durante cuánto tiempo los conserva y cómo pueden los usuarios recurrir o corregir errores. Esa transparencia será clave para ganarse la confianza tanto de reguladores como de ciudadanos, especialmente en contextos donde la sensibilidad hacia la privacidad es alta.

Con todo, el modo adulto de ChatGPT se perfila como uno de los cambios más delicados en la corta historia de los asistentes basados en IA: busca responder a la demanda de más libertad y realismo por parte de los adultos, al tiempo que intenta blindar a los menores mediante un sistema de verificación complejo y todavía en pruebas. Hasta que llegue su lanzamiento definitivo, el debate seguirá girando en torno a la misma pregunta: cuánto margen de intimidad y erotismo estamos dispuestos a conceder a una inteligencia artificial sin perder de vista la responsabilidad y la protección de los más vulnerables.

Control parental Roblox limites de chat por edad
Artículo relacionado:
Roblox refuerza sus medidas infantiles: verificación facial y chats por edad