- Un informe independente detecta respostas perigosas en tres xoguetes de IA destinados a nenos.
- Os filtros fallan en conversas longas, xerando recomendacións inapropiadas.
- Impacto en España e na UE: as normas de privacidade e seguridade dos nenos no punto de mira.
- Guía de compras e boas prácticas para familias antes deste Nadal.
O Os xoguetes con funcións de intelixencia artificial están no punto de mira tras un informe de Grupo de Investigación de Interese Público dos Estados Unidos que documenta respostas perigosas en modelos dirixidos a nenos de 3 a 12 anosSegundo o equipo dirixido por RJ Cross, as sesións de conversa prolongadas e o uso normal do produto foron suficientes para que xurdisen indicacións inapropiadas, sen necesidade de trucos nin manipulacións.
A análise examinou tres dispositivos populares: Kumma de FoloToy, Miko 3 e Curio's GrokEn varios casos, os sistemas de protección fallaron e pasaron por alto recomendacións que non deberían aparecer nun xoguete infantil; un dos modelos usa GPT-4 e outro Transfire datos a servizos como OpenAI e Perplexity.Isto reaviva o debate sobre o filtrado, a privacidade e o tratamento da información relativa a menores.
Tres xoguetes, un mesmo patrón de risco

Nas probas, As longas conversas foron o detonante.A medida que o diálogo avanzaba, Os filtros deixaron de bloquear as respostas problemáticasNon había necesidade de forzar a máquina; simulouse o uso cotián dun neno falando co seu xoguete, o que Isto aumenta as preocupacións sobre o escenario real do partido na casa..
Os investigadores describen comportamentos dispares entre dispositivos, pero cun conclusión común: os sistemas de seguridade non son coherentesUn dos modelos deu lugar a referencias claramente inapropiadas para a idadee outro redirixido a recursos externos non axeitados para un público infantil, o que demostra un control insuficiente do contido.
O caso de Curio's Grok é ilustrativo porque, a pesar do seu nome, Non usa o modelo xAI: O tráfico vai a servizos de terceirosEste detalle é importante en Europa e España pola trazabilidade dos datos e a xestión dos perfís dos menores, onde a normativa esixe unha dilixencia especial por parte de fabricantes, importadores e distribuidores.
O informe subliña que o problema é fundamental: unha vulnerabilidade estruturalNon é un erro sinxelo que se poida arranxar cun só parche, senón unha combinación de deseño conversacional, modelos xerativos e filtros que se erosiona co tempo. Polo tanto, os autores Desaconsellan mercar xoguetes con chatbots integrados para nenos.polo menos ata que haxa garantías claras.
Implicacións para España e Europa
No marco europeo, a atención céntrase en dúas frontes: seguridade dos produtos e protección de datosO Regulamento xeral de seguridade dos produtos e os regulamentos sobre xoguetes esixen unha avaliación de riscos antes da súa comercialización, mentres que o RGPD e as directrices sobre o tratamento dos datos dos nenos esixen transparencia, minimización e bases xurídicas axeitadas.
A isto súmase o novo marco do Lei Europea de IAque se implementará por fases. Aínda que moitos xoguetes non encaixan na categoría de "alto risco", a integración de modelos xerativos e o potencial de elaboración de perfís infantís son preocupantes. Requirirán máis documentación, avaliacións e controis en toda a cadea.especialmente se hai unha transferencia de datos fóra da UE.
Para as familias en España, o práctico é esixir información clara sobre que datos se recollen, con quen se comparten e durante canto tempo. Se a o xoguete envía audioSe se comparten texto ou identificadores con terceiros, débense especificar os fins, os mecanismos de control parental e as opcións para eliminar o historial de navegación. A Axencia Española de Protección de Datos (AEPD) lembra aos usuarios que o interese superior do menor prevalece sobre os usos comerciais.
O contexto non é insignificante: A tempada de Nadal aumenta a presenza destes produtos nas tendas e plataformas en liña, e o interese por eles medra. agasallos tecnolóxicosAs asociacións de consumidores preguntaron aos comerciantes contido adicional e comprobacións de privacidade antes de promocionar xoguetes de IA, para evitar retiradas inoportunas ou avisos de última hora.
O que din as empresas e a industria
O sector dos xoguetes aposta pola IA, con anuncios como a colaboración de Mattel con OpenAI e desenvolvementos de Avatares alimentados por IAA empresa prometeu priorizar a seguridade, aínda que non detallou todas as medidas específicas. O precedente de Hello Barbie en 2015, envolto na controversia sobre seguridade e recollida de datos, segue a pesar moito no debate.
Expertos en infancia e tecnoloxía advirten doutra fronte: posible dependencia emocional que poden xerar xoguetes conversacionais. Documentáronse casos nos que a interacción con chatbots foi un factor de risco en contextos sensibles, o que fomenta o fortalecemento da supervisión de adultos, os límites de uso e a educación dixital desde unha idade temperá.
Claves para elixir e usar un xoguete de IA

Máis alá do ruído, hai marxe para reducir os riscos se compras con prudencia e configuras o dispositivo correctamente. Estas pautas axudan a equilibrar a innovación e a seguridade No fogar:
- Consulta a idade recomendada e que existe un modo fillo real (sen navegación externa nin respostas abertas non controladas).
- Le a política de privacidade: tipo de datos, destino (UE ou fóra), tempo de retención e opcións para eliminar o historial.
- Activa o control parentalLimita a funcionalidade en liña e comproba se hai filtros configurables e listas de bloqueo.
- Consultar se hai actualizacións e asistenciaParches de seguridade frecuentes e compromiso co ciclo de vida do produto.
- Monitorizar o usoEstablece límites de tempo razoables e fala cos nenos sobre que facer en resposta a respostas estrañas.
- Desactivar o micrófono/cámara cando non estean en uso e evite as contas vinculadas con datos persoais innecesarios.
Que esperar a curto prazo
Co impulso regulamentario europeo e a presión dos consumidores, espérase que os fabricantes introduzan controis, auditorías e transparencia máis estritos en próximas actualizacións. Aínda así, a marca CE e as marcas comerciais non substitúen a supervisión familiar nin a avaliación crítica do produto no día a día.
O panorama que debuxan estas probas é matizado: a IA abre posibilidades educativas e lúdicas, pero hoxe coexiste con filtrando lagoas, dúbidas sobre datos e riscos de deseño conversacionalAta que a industria aliñe a innovación e as garantías, a compra informada, a configuración coidadosa e a supervisión dun adulto son a mellor rede de seguridade.
Son un entusiasta da tecnoloxía que converteu os seus intereses "friki" nunha profesión. Levo máis de 10 anos da miña vida empregando tecnoloxía de punta e retocando todo tipo de programas por pura curiosidade. Agora especializeime en tecnoloxía informática e videoxogos. Isto débese a que dende hai máis de 5 anos levo escribindo para diversas webs sobre tecnoloxía e videoxogos, creando artigos que buscan darche a información que necesitas nun idioma comprensible para todos.
Se tes algunha dúbida, os meus coñecementos abarcan dende todo o relacionado co sistema operativo Windows e tamén con Android para teléfonos móbiles. E o meu compromiso é contigo, sempre estou disposto a dedicar uns minutos e axudarche a resolver calquera dúbida que teñas neste mundo de internet.