- La SB 243 obliga a los chatbots a identificarse y aplicar recordatorios periódicos, con avisos cada tres horas para menores.
- Se restringen conversaciones sobre sexualidad y autolesiones con menores y se activan protocolos de crisis.
- Las plataformas deberán reportar señales de ideación suicida a la Oficina estatal de Prevención del Suicidio.
- El paquete incluye otras normas de IA en California sobre riesgos, deepfakes y responsabilidad.
California ha dado un paso decisivo en la supervisión de la inteligencia artificial con una norma que pone el foco en los llamados «chatbots compañeros», aquellos que simulan amistad o intimidad. El gobernador Gavin Newsom firmó la SB 243, una ley que exige que estas herramientas se identifiquen como sistemas automatizados y adopten salvaguardas específicas cuando interactúan con usuarios menores.
La medida, impulsada por el senador estatal Steve Padilla, se centra menos en la arquitectura técnica y más en la interfaz emocional entre personas y máquinas. La versión final, más acotada tras la presión de la industria, mantiene obligaciones clave: recordatorios regulares de que se habla con una IA, filtros de contenido adecuados a la edad y protocolos de respuesta ante señales de autolesión o suicidio.
Qué exige exactamente la SB 243
El núcleo de la norma obliga a que los chatbots adviertan de forma clara y reiterada que son software de IA. En el caso de usuarios menores, el sistema deberá mostrar un recordatorio al menos cada tres horas, de manera visible y comprensible para evitar confusiones sobre la naturaleza no humana de la interacción.
Además, los operadores tienen que implementar filtros de contenido y límites por edad: quedan fuera de las conversaciones con menores los temas de sexualidad explícita y cualquier interacción que normalice o aliente la autolesión. Estas barreras se complementan con derivaciones a servicios de crisis cuando se detecten indicadores de riesgo.
La ley exige que las plataformas establezcan protocolos de detección temprana y respuesta, así como reportes de los casos de ideación suicida identificados a la Oficina de Prevención del Suicidio de California. Con ello se busca reforzar la coordinación con autoridades sanitarias e incorporar métricas sobre el impacto de estas herramientas en la salud mental.
Para sostener estas salvaguardas, las empresas deberán aplicar mecanismos razonables de verificación de edad en sus servicios orientados a residentes del estado. La obligación alcanza a redes sociales, webs y apps que ofrezcan chatbots de compañía, incluidas plataformas de juegos u opciones descentralizadas que operen en California.
La versión final de la SB 243 dejó fuera auditorías de terceros y una aplicación para todos los usuarios (no solo menores) que se contemplaron en borradores anteriores. Pese a este recorte, Newsom defendió la norma como un dique de contención frente a daños prevenibles, con entrada en vigor prevista para enero de 2026.
Un paquete más amplio de leyes de IA en el estado
La SB 243 llega acompañada de otras iniciativas aprobadas recientemente, como la SB 53, que obliga a grandes desarrolladores de IA a divulgar públicamente sus estrategias de seguridad y mitigación de riesgos. El objetivo es mejorar la transparencia de los modelos avanzados que ya tienen impacto social a gran escala.
En paralelo, se han impulsado medidas para evitar que las compañías eludan responsabilidades amparándose en que la tecnología “actúa de forma autónoma”. También se han endurecido las sanciones contra los deepfakes sexuales no consentidos, elevando significativamente las multas cuando afecten a víctimas menores.
El paquete incluye, además, restricciones para que los chatbots no se hagan pasar por profesionales sanitarios o figuras de autoridad, una táctica que puede inducir a error a usuarios vulnerables. Con estas piezas, Sacramento perfila un marco estatal que intenta equilibrar innovación, derechos y seguridad pública.
Apoyos, críticas y dudas sobre su alcance
La norma ha recibido elogios por ser pionera y al mismo tiempo reproches por quedarse corta. Organizaciones como Common Sense Media y Tech Oversight Project retiraron su apoyo al eliminarse las auditorías externas y al limitarse su alcance a menores, lo que, según advierten, podría convertir la ley en un gesto insuficiente frente a los riesgos actuales.
En el otro extremo, desarrolladores y expertos advierten que una responsabilidad desproporcionada podría llevar a “bloqueos por precaución”: filtros tan estrictos que silencien conversaciones legítimas sobre salud mental o educación sexual, privando de apoyos cruciales a adolescentes que buscan ayuda en línea.
La presión política y económica ha sido intensa: grupos tecnológicos y coaliciones del sector invirtieron millones en lobby durante la sesión para modular los textos más duros. A la vez, la fiscalía estatal y la FTC han activado escrutinios sobre prácticas de chatbots dirigidos a menores, en un entorno de demandas civiles y denuncias de familias afectadas.
Casos recientes y demandas contra plataformas como Character.AI u OpenAI han escalado el debate público. Tras los señalamientos, grandes actores como Meta y OpenAI anunciaron cambios: bloqueo de conversaciones inapropiadas con adolescentes y derivaciones a recursos especializados, además de nuevos controles parentales.
Retos de aplicación y efectos previsibles
La puesta en marcha plantea desafíos operativos. Las plataformas globales tendrán que determinar con precisión quién es menor residente en California y supervisar millones de interacciones diarias sin invadir la privacidad, algo complejo a nivel técnico y jurídico.
Otro desafío será evitar el “efecto arrastre” hacia la censura excesiva: si las empresas temen sanciones, podrían retirar contenidos útiles de bienestar emocional por pura prudencia. Encontrar el punto de equilibrio entre protección y acceso a información fiable será clave para evaluar el éxito de la norma.
También persiste la incógnita del impacto nacional: como ha ocurrido con otras primeras regulaciones californianas, sus requisitos podrían convertirse de facto en estándar para operadores de todo EE. UU., incluso antes de contar con evidencia sólida de eficacia.
Aunque el texto definitivo es más estrecho que las propuestas iniciales, la SB 243 fija reglas inéditas para los “chatbots compañeros”: avisos claros, filtros por edad y protocolos de crisis con reporte institucional. Si estas barreras mínimas logran proteger a los menores sin sofocar apoyos legítimos, California habrá marcado un camino intermedio que otros estados pueden seguir.
Soy un apasionado de la tecnología que ha convertido sus intereses «frikis» en profesión. Llevo más de 10 años de mi vida utilizando tecnología de vanguardia y trasteando todo tipo de programas por pura curiosidad. Ahora me he especializado en tecnología de ordenador y videojuegos. Esto es por que desde hace más de 5 años que trabajo redactando para varias webs en materia de tecnología y videojuegos, creando artículos que buscan darte la información que necesitas con un lenguaje entendible por todos.
Si tienes cualquier pregunta, mis conocimientos van desde todo lo relacionado con el sistema operativo Windows así como Android para móviles. Y es que mi compromiso es contigo, siempre estoy dispuesto a dedicarte unos minutos y ayudarte a resolver cualquier duda que tengas en este mundo de internet.