California aprueba la SB 243 para regular chatbots de IA y proteger a menores

Última actualización: 15/10/2025

  • La SB 243 obliga a los chatbots a identificarse y aplicar recordatorios periódicos, con avisos cada tres horas para menores.
  • Se restringen conversaciones sobre sexualidad y autolesiones con menores y se activan protocolos de crisis.
  • Las plataformas deberán reportar señales de ideación suicida a la Oficina estatal de Prevención del Suicidio.
  • El paquete incluye otras normas de IA en California sobre riesgos, deepfakes y responsabilidad.

California leyes de IA

California ha dado un paso decisivo en la supervisión de la inteligencia artificial con una norma que pone el foco en los llamados «chatbots compañeros», aquellos que simulan amistad o intimidad. El gobernador Gavin Newsom firmó la SB 243, una ley que exige que estas herramientas se identifiquen como sistemas automatizados y adopten salvaguardas específicas cuando interactúan con usuarios menores.

La medida, impulsada por el senador estatal Steve Padilla, se centra menos en la arquitectura técnica y más en la interfaz emocional entre personas y máquinas. La versión final, más acotada tras la presión de la industria, mantiene obligaciones clave: recordatorios regulares de que se habla con una IA, filtros de contenido adecuados a la edad y protocolos de respuesta ante señales de autolesión o suicidio.

Qué exige exactamente la SB 243

Ley de IA en California

El núcleo de la norma obliga a que los chatbots adviertan de forma clara y reiterada que son software de IA. En el caso de usuarios menores, el sistema deberá mostrar un recordatorio al menos cada tres horas, de manera visible y comprensible para evitar confusiones sobre la naturaleza no humana de la interacción.

Además, los operadores tienen que implementar filtros de contenido y límites por edad: quedan fuera de las conversaciones con menores los temas de sexualidad explícita y cualquier interacción que normalice o aliente la autolesión. Estas barreras se complementan con derivaciones a servicios de crisis cuando se detecten indicadores de riesgo.

Contenido exclusivo - Clic Aquí  Claude cambia las reglas: así debes configurar tu cuenta si no quieres que tus chats entrenen la IA

La ley exige que las plataformas establezcan protocolos de detección temprana y respuesta, así como reportes de los casos de ideación suicida identificados a la Oficina de Prevención del Suicidio de California. Con ello se busca reforzar la coordinación con autoridades sanitarias e incorporar métricas sobre el impacto de estas herramientas en la salud mental.

Para sostener estas salvaguardas, las empresas deberán aplicar mecanismos razonables de verificación de edad en sus servicios orientados a residentes del estado. La obligación alcanza a redes sociales, webs y apps que ofrezcan chatbots de compañía, incluidas plataformas de juegos u opciones descentralizadas que operen en California.

La versión final de la SB 243 dejó fuera auditorías de terceros y una aplicación para todos los usuarios (no solo menores) que se contemplaron en borradores anteriores. Pese a este recorte, Newsom defendió la norma como un dique de contención frente a daños prevenibles, con entrada en vigor prevista para enero de 2026.

Un paquete más amplio de leyes de IA en el estado

California SB 243

La SB 243 llega acompañada de otras iniciativas aprobadas recientemente, como la SB 53, que obliga a grandes desarrolladores de IA a divulgar públicamente sus estrategias de seguridad y mitigación de riesgos. El objetivo es mejorar la transparencia de los modelos avanzados que ya tienen impacto social a gran escala.

Contenido exclusivo - Clic Aquí  Le Chat de Mistral AI: el nuevo chatbot europeo que busca competir con ChatGPT

En paralelo, se han impulsado medidas para evitar que las compañías eludan responsabilidades amparándose en que la tecnología “actúa de forma autónoma”. También se han endurecido las sanciones contra los deepfakes sexuales no consentidos, elevando significativamente las multas cuando afecten a víctimas menores.

El paquete incluye, además, restricciones para que los chatbots no se hagan pasar por profesionales sanitarios o figuras de autoridad, una táctica que puede inducir a error a usuarios vulnerables. Con estas piezas, Sacramento perfila un marco estatal que intenta equilibrar innovación, derechos y seguridad pública.

Apoyos, críticas y dudas sobre su alcance

California regula chatbots de IA con la SB 243

La norma ha recibido elogios por ser pionera y al mismo tiempo reproches por quedarse corta. Organizaciones como Common Sense Media y Tech Oversight Project retiraron su apoyo al eliminarse las auditorías externas y al limitarse su alcance a menores, lo que, según advierten, podría convertir la ley en un gesto insuficiente frente a los riesgos actuales.

En el otro extremo, desarrolladores y expertos advierten que una responsabilidad desproporcionada podría llevar a “bloqueos por precaución”: filtros tan estrictos que silencien conversaciones legítimas sobre salud mental o educación sexual, privando de apoyos cruciales a adolescentes que buscan ayuda en línea.

La presión política y económica ha sido intensa: grupos tecnológicos y coaliciones del sector invirtieron millones en lobby durante la sesión para modular los textos más duros. A la vez, la fiscalía estatal y la FTC han activado escrutinios sobre prácticas de chatbots dirigidos a menores, en un entorno de demandas civiles y denuncias de familias afectadas.

Contenido exclusivo - Clic Aquí  Apple apuesta por la inteligencia artificial para aumentar la autonomía de la batería en el iPhone con iOS 19

Casos recientes y demandas contra plataformas como Character.AI u OpenAI han escalado el debate público. Tras los señalamientos, grandes actores como Meta y OpenAI anunciaron cambios: bloqueo de conversaciones inapropiadas con adolescentes y derivaciones a recursos especializados, además de nuevos controles parentales.

Retos de aplicación y efectos previsibles

La puesta en marcha plantea desafíos operativos. Las plataformas globales tendrán que determinar con precisión quién es menor residente en California y supervisar millones de interacciones diarias sin invadir la privacidad, algo complejo a nivel técnico y jurídico.

Otro desafío será evitar el “efecto arrastre” hacia la censura excesiva: si las empresas temen sanciones, podrían retirar contenidos útiles de bienestar emocional por pura prudencia. Encontrar el punto de equilibrio entre protección y acceso a información fiable será clave para evaluar el éxito de la norma.

También persiste la incógnita del impacto nacional: como ha ocurrido con otras primeras regulaciones californianas, sus requisitos podrían convertirse de facto en estándar para operadores de todo EE. UU., incluso antes de contar con evidencia sólida de eficacia.

Aunque el texto definitivo es más estrecho que las propuestas iniciales, la SB 243 fija reglas inéditas para los “chatbots compañeros”: avisos claros, filtros por edad y protocolos de crisis con reporte institucional. Si estas barreras mínimas logran proteger a los menores sin sofocar apoyos legítimos, California habrá marcado un camino intermedio que otros estados pueden seguir.

control parental chatgpt
Artículo relacionado:
OpenAI incorporará control parental en ChatGPT con cuentas familiares, avisos de riesgo y límites de uso