- Un informe independiente detecta respuestas peligrosas en tres juguetes con IA destinados a menores.
- Los filtros fallan en conversaciones largas, generando recomendaciones inapropiadas.
- Impacto en España y la UE: privacidad infantil y normas de seguridad en el punto de mira.
- Guía de compra y buenas prácticas para familias antes de estas Navidades.
Los juguetes con funciones de inteligencia artificial están en el punto de mira tras un informe de la US Public Interest Research Group que documenta respuestas peligrosas en modelos dirigidos a niños de 3 a 12 años. Según el equipo liderado por RJ Cross, bastaron sesiones de conversación prolongadas y un uso normal del producto para que emergieran indicaciones inadecuadas, sin necesidad de trucos ni manipulación.
El análisis examinó tres dispositivos populares: Kumma de FoloToy, Miko 3 y Curio’s Grok. En varios casos, los sistemas de protección fallaron y se colaron recomendaciones que no deberían aparecer en un juguete infantil; uno de los modelos emplea GPT-4o y otro transfiere datos a servicios como OpenAI y Perplexity, lo que reaviva el debate sobre filtrado, privacidad y tratamiento de la información de menores.
Tres juguetes, un mismo patrón de riesgo

En las pruebas, las conversaciones largas fueron el detonante: a medida que avanzaba el diálogo, los filtros dejaron de frenar contestaciones problemáticas. No se requirió forzar la máquina; se simuló el uso cotidiano de un niño que charla con su juguete, lo cual incrementa la preocupación por el escenario real de juego en casa.
Los investigadores describen conductas dispares entre aparatos, pero con una conclusión común: los sistemas de seguridad no son consistentes. Uno de los modelos dio pie a referencias claramente inapropiadas para la edad, y otro redirigió a recursos externos no acordes con un público infantil, evidenciando un control insuficiente de contenidos.
El caso de Curio’s Grok es ilustrativo porque, pese a su nombre, no utiliza el modelo de xAI: el tráfico va a servicios de terceros. Este detalle importa en Europa y España por la trazabilidad de datos y la gestión de perfiles de menores, donde la normativa exige especial diligencia a fabricantes, importadores y distribuidores.
El informe remarca que el problema es de base: una vulnerabilidad estructural. No es un simple bug que se arregle con un parche aislado, sino una combinación de diseño conversacional, modelos generativos y filtros que se erosionan con el tiempo de uso. Por ello, los autores desaconsejan comprar juguetes con chatbots integrados para menores, al menos hasta que haya garantías claras.
Implicaciones para España y Europa
En el marco europeo, el foco está en dos frentes: seguridad del producto y protección de datos. El Reglamento de Seguridad General de los Productos y la normativa de juguetes obligan a evaluar riesgos antes de salir al mercado, mientras que el RGPD y las directrices sobre tratamiento de datos de menores imponen transparencia, minimización y bases legales adecuadas.
A esto se suma el nuevo marco de la Ley Europea de IA (AI Act), que se desplegará por fases. Aunque muchos juguetes no encajen como “alto riesgo”, la integración de modelos generativos y el posible perfilado infantil exigirán más documentación, evaluaciones y controles a lo largo de la cadena, particularmente si hay transferencia de datos fuera de la UE.
Para familias en España, lo práctico es exigir información clara sobre qué datos se recopilan, con quién se comparten y durante cuánto tiempo. Si un juguete envía audio, texto o identificadores a terceros, deben especificarse finalidades, mecanismos de control parental y opciones para borrar historiales. La AEPD recuerda que el interés superior del menor prevalece ante usos comerciales.
El contexto no es menor: la campaña navideña multiplica la presencia de estos productos en tiendas y plataformas online y crece el interés por regalos tecnológicos. Asociaciones de consumidores vienen pidiendo a los retailers verificaciones extra de contenido y privacidad antes de promocionar juguetes con IA, para evitar retiradas a destiempo o advertencias de última hora.
Qué dicen las empresas y el sector
El sector juguetero apuesta por la IA, con anuncios como la colaboración de Mattel con OpenAI y desarrollos de avatares impulsados por IA. La compañía ha prometido priorizar la seguridad, si bien no ha detallado aún todas las medidas concretas. El precedente de Hello Barbie en 2015, envuelto en polémicas por la seguridad y la recopilación de datos, sigue pesando en el debate.
Expertos en infancia y tecnología advierten de otro frente: la posible dependencia emocional que pueden generar juguetes conversacionales. Se han documentado casos donde la interacción con chatbots fue un factor de riesgo en contextos sensibles, lo que anima a reforzar el acompañamiento adulto, los límites de uso y la educación digital desde edades tempranas.
Claves para elegir y usar un juguete con IA

Más allá del ruido, hay margen para reducir riesgos si se compra con criterio y se configura bien el dispositivo. Estas pautas ayudan a equilibrar innovación y seguridad en el hogar:
- Verifica la edad recomendada y que exista un modo infantil real (sin navegaciones externas ni respuestas abiertas no controladas).
- Lee la política de privacidad: tipo de datos, destino (UE o fuera), tiempo de retención y opciones para borrar historial.
- Activa el control parental, limita funcionalidades en línea y revisa si hay filtros configurables y listas de bloqueo.
- Comprueba actualizaciones y soporte: parches de seguridad frecuentes y compromiso de ciclo de vida del producto.
- Supervisa el uso, establece tiempos razonables y conversa con los menores sobre qué hacer ante respuestas extrañas.
- Desactiva micrófono/cámara cuando no se utilicen y evita cuentas vinculadas con datos personales innecesarios.
Qué esperar a corto plazo
Con el impulso regulatorio europeo y la presión de consumidores, es previsible que los fabricantes introduzcan controles más estrictos, auditorías y transparencia en actualizaciones próximas. Aun así, el marcado CE y los sellos comerciales no sustituyen la supervisión familiar ni la evaluación crítica del producto en el día a día.
La fotografía que dejan estas pruebas es matizada: la IA abre posibilidades educativas y de juego, pero hoy convive con lagunas de filtrado, dudas sobre datos y riesgos de diseño conversacional. Hasta que el sector alinee innovación y garantías, la compra informada, la configuración cuidadosa y el acompañamiento adulto son la mejor red de seguridad.
Soy un apasionado de la tecnología que ha convertido sus intereses «frikis» en profesión. Llevo más de 10 años de mi vida utilizando tecnología de vanguardia y trasteando todo tipo de programas por pura curiosidad. Ahora me he especializado en tecnología de ordenador y videojuegos. Esto es por que desde hace más de 5 años que trabajo redactando para varias webs en materia de tecnología y videojuegos, creando artículos que buscan darte la información que necesitas con un lenguaje entendible por todos.
Si tienes cualquier pregunta, mis conocimientos van desde todo lo relacionado con el sistema operativo Windows así como Android para móviles. Y es que mi compromiso es contigo, siempre estoy dispuesto a dedicarte unos minutos y ayudarte a resolver cualquier duda que tengas en este mundo de internet.