- Bruselas abre una investigación formal sobre Grok en X por la generación y difusión de imágenes sexualizadas no consentidas, incluidas de menores.
- La Comisión Europea evalúa si X ha cumplido la Ley de Servicios Digitales en la evaluación y mitigación de riesgos sistémicos.
- X ya ha sido multada con 120 millones de euros y se expone ahora a sanciones de hasta el 6% de su facturación global e incluso a medidas provisionales sobre Grok.
- El caso se inscribe en una presión mayor de la UE para que las grandes plataformas de IA y redes sociales protejan a los ciudadanos, especialmente mujeres y menores.
La Unión Europea ha decidido dar un paso más en su pulso con las grandes tecnológicas y ha puesto el foco directamente en Grok, la herramienta de inteligencia artificial integrada en X, la antigua Twitter. Las instituciones comunitarias sospechan que su despliegue en la plataforma no se ha hecho con las debidas garantías y que se ha permitido la creación y difusión masiva de imágenes sexualizadas manipuladas de mujeres y menores, en muchos casos sin ningún tipo de consentimiento.
Esta nueva investigación formal se enmarca en el Reglamento de Servicios Digitales (DSA), la norma que regula cómo deben gestionar las grandes plataformas los riesgos asociados a sus servicios. Bruselas quiere aclarar si X evaluó antes de tiempo los peligros de Grok y si aplicó medidas eficaces para frenarlos o, por el contrario, ha tratado los derechos de los ciudadanos europeos como un daño colateral de su apuesta por la inteligencia artificial.
Qué está investigando exactamente la Comisión Europea

El expediente abierto por la Comisión Europea se centra en determinar si X ha llevado a cabo una evaluación específica de riesgos antes de lanzar y ampliar las funcionalidades de Grok en la Unión Europea. La DSA obliga a las grandes plataformas a analizar de forma previa cómo pueden afectar sus sistemas a la seguridad, a la protección de menores, a la integridad física y mental de los usuarios o a la difusión de contenidos ilegales.
En el caso de Grok, el foco está puesto en la generación automatizada de imágenes sexualmente explícitas, especialmente aquellas que afectan a personas reales, incluidos menores. Se investiga si las herramientas de IA de X han permitido crear y compartir deepfakes en los que se colocan rostros auténticos sobre cuerpos desnudos o en situaciones sexuales, una práctica que puede constituir material de abuso sexual infantil cuando las víctimas son niños o adolescentes.
Bruselas también ha decidido ampliar la investigación que ya tenía abierta desde diciembre de 2023 sobre el sistema de recomendación de contenidos de X. La compañía anunció que integraría Grok en ese algoritmo, de manera que la IA influya directamente en qué publicaciones ve cada usuario, lo que abre nuevas dudas sobre la gestión de la desinformación, el discurso de odio y otros riesgos sistémicos.
Según fuentes comunitarias, los potenciales daños ya no son hipotéticos: la Comisión sostiene que los riesgos se han materializado, exponiendo a los ciudadanos de la UE a consecuencias graves para su bienestar físico y mental. Precisamente por ello, el expediente se tramitará de forma prioritaria, aunque sin un calendario cerrado.
Deepfakes sexuales y abuso infantil: el detonante
El origen inmediato de esta ofensiva europea está en la oleada de deepfakes sexuales no consentidos generados con Grok. Distintos estudios y organizaciones han alertado de millones de imágenes manipuladas creadas en muy pocos días a partir de fotografías reales, con especial impacto en mujeres y menores de edad. En algunos informes se habla de millones de imágenes sexualizadas producidas en apenas dos semanas, de las cuales decenas de miles afectarían a niños.
Este fenómeno no se limita a la UE, pero ha tenido una resonancia particular en Europa por la sensibilidad creciente en torno a la protección de la infancia y la violencia digital de género. La presidenta de la Comisión, Ursula von der Leyen, llegó a afirmar que la Unión Europea no va a “externalizar la protección infantil” a Silicon Valley y que, si las plataformas no actúan por sí mismas, serán las autoridades europeas las que intervengan.
En la misma línea, la vicepresidenta ejecutiva para la Soberanía Tecnológica, la Seguridad y la Democracia, Henna Virkkunen, ha calificado estos deepfakes como una forma “violenta e inaceptable de degradación”. Su mensaje es claro: se quiere saber si X ha respetado las obligaciones del DSA o si ha considerado los derechos de las mujeres y los niños como algo secundario frente al desarrollo de Grok.
No es el primer episodio polémico asociado a esta inteligencia artificial. Semanas antes, Grok ya había sido señalado por contenidos que minimizaban o blanqueaban el Holocausto, lo que reforzó en Bruselas la idea de que X no está calibrando adecuadamente los riesgos de la tecnología que incorpora en su plataforma.
Las obligaciones de X bajo la Ley de Servicios Digitales
El marco que guía la actuación de Bruselas es el Reglamento de Servicios Digitales, la norma que fija reglas específicas para las llamadas “muy grandes plataformas en línea”, categoría en la que entra X al superar el umbral de usuarios en Europa. Estas empresas deben identificar y abordar riesgos sistémicos, desde la desinformación hasta la difusión de contenidos ilegales y la violencia de género.
Entre otras cosas, la DSA exige que antes de poner en marcha nuevas funciones que puedan modificar notablemente el perfil de riesgo de un servicio, la plataforma elabore un informe de evaluación de riesgos y detalle qué medidas va a aplicar para mitigarlos. En este caso, la Comisión ha ordenado a X que conserve y entregue toda la documentación interna vinculada a Grok, desde pruebas técnicas hasta decisiones de diseño.
Las autoridades europeas también recuerdan que la responsabilidad por los contenidos ilegales en la red no recae solo en quien los genera. De acuerdo con la interpretación de juristas especializados en derecho digital, como el profesor Borja Adsuara, las plataformas están obligadas a suprimir ese material y a impedir su difusión repetida una vez que tienen conocimiento de su existencia, especialmente cuando afectan a menores.
Bruselas sospecha que X pudo activar y ampliar las capacidades de Grok sin una evaluación de riesgos específica previa, y que las barreras técnicas introducidas tras las primeras críticas no han sido suficientes. De hecho, distintos medios europeos comprobaron que, incluso después de que la empresa anunciara nuevas limitaciones, seguía siendo relativamente sencillo sortear los filtros y generar imágenes sexualizadas con la herramienta.
Posibles sanciones y medidas provisionales
El expediente abierto contra X por Grok no es un aviso simbólico. La DSA permite a la Comisión Europea imponer multas de hasta el 6% de la facturación global anual de la compañía en los casos más graves. En un negocio con ingresos de cientos o miles de millones, las cifras suben de forma notable, y el impacto va más allá del mero coste financiero.
En paralelo, el reglamento prevé sanciones intermedias y la posibilidad de adoptar medidas provisionales si se detectan riesgos graves antes de que concluya la investigación. Esto significa que Bruselas puede ordenar la limitación o incluso la suspensión de determinadas funcionalidades de Grok en X, o exigir cambios técnicos urgentes en los filtros y salvaguardas de la herramienta de IA para reducir su potencial dañino.
La Comisión ya demostró que está dispuesta a utilizar su poder sancionador cuando, en diciembre, impuso a X una multa de 120 millones de euros por tres motivos principales: falta de transparencia en la publicidad, diseño engañoso de la marca de verificación azul y bloqueo del acceso a datos públicos para los investigadores. Aquella sanción se aproximó al máximo previsto por la DSA para esos incumplimientos y se convirtió en un aviso a todo el sector.
En el caso concreto de Grok, si la Comisión acredita un incumplimiento grave reiterado, el marco legal europeo permite ir todavía más allá. En situaciones extremas, se contemplan medidas como la suspensión temporal del servicio en el territorio comunitario, lo que podría implicar el bloqueo de determinadas funciones de X o, en última instancia, un cierre total si se acumularan infracciones y la empresa se negara a corregirlas.
La respuesta de X y la presión internacional
Desde la compañía que lidera Elon Musk, la postura oficial ha sido insistir en que la responsabilidad de las imágenes generadas recae en los usuarios que las crean y distribuyen. X sostiene que mantiene una política de tolerancia cero con la explotación sexual infantil y la desnudez no consentida, y que está introduciendo ajustes en Grok para limitar la generación de contenido sensible.
En una declaración reciente, la empresa aseguró que dejaría de permitir que los usuarios representasen a personas reales en bikinis, ropa interior u otras prendas especialmente reveladoras, al menos allí donde esa práctica pueda ser ilegal. Sin embargo, los reguladores europeos consideran que estas medidas llegaron tarde y son insuficientes, y que no hubo una prevención adecuada, sino más bien una reacción a la polémica pública.
La controversia en torno a Grok ha tenido eco fuera de la UE. Malasia e Indonesia llegaron a bloquear el acceso al servicio de imágenes por el aluvión de denuncias sobre deepfakes sexuales, aunque en uno de los casos la restricción se levantó después de que X prometiera nuevas salvaguardas. Otros países, como Italia, han tomado medidas contra aplicaciones especializadas en desnudos sintéticos, y en Estados Unidos o China se han abierto causas judiciales contra empresas cuyo modelo de negocio se basa en este tipo de contenidos.
En Europa, además de la acción comunitaria, algunos Gobiernos nacionales han movido ficha. El Ejecutivo francés ha denunciado a X ante los tribunales por las imágenes de mujeres y menores desnudos generadas por Grok, mientras que España ha impulsado un anteproyecto para reformar la ley sobre el derecho al honor, la intimidad y la propia imagen, incorporando las “ultrasuplantaciones” con inteligencia artificial como una forma específica de vulneración mediante deepfakes.
Un caso clave en la regulación de la IA generativa
Más allá de la batalla jurídica inmediata, el expediente contra Grok se ha convertido en un caso de referencia sobre cómo aplicar la DSA a la inteligencia artificial generativa cuando está integrada en grandes plataformas en línea. A diferencia de otros servicios de IA autónomos, aquí la herramienta forma parte del corazón de una red social con decenas de millones de usuarios en Europa, y sus respuestas se difunden de manera casi instantánea.
Los reguladores europeos han dejado claro que la investigación se centra en el uso de Grok dentro de X, no en el sitio web independiente o en otras aplicaciones de xAI, la empresa de IA de Musk. Esto se debe a que el DSA se aplica especialmente a las plataformas que alcanzan a más del 10% de la población comunitaria, umbral que X supera con holgura.
En la práctica, la Comisión trata de aclarar hasta dónde llega la obligación de las plataformas de controlar y rediseñar sus sistemas cuando queda probado que favorecen la difusión de contenidos ilegales o dañinos. La cuestión no es solo si X retiró determinadas imágenes tras recibir avisos, sino si configuró Grok y sus herramientas de recomendación de manera responsable desde el principio.
La investigación también se cruza con el debate transatlántico sobre la regulación digital. Desde Washington han surgido críticas a las normas europeas, acusando a la DSA de limitar la libertad de expresión y penalizar a las empresas estadounidenses. Bruselas responde que la libertad de expresión no puede utilizarse como escudo para tolerar la explotación sexual de menores, la violencia de género o la manipulación masiva de la opinión pública.
Mientras X intenta demostrar que está corrigiendo el rumbo y que Grok puede operar respetando la legislación europea, las instituciones comunitarias avanzan en un expediente que puede marcar un antes y un después en cómo se supervisa la combinación de redes sociales y modelos de IA generativa. Lo que se decida en este caso no solo condicionará el futuro de Grok en Europa, sino que enviará un mensaje claro al resto de grandes plataformas sobre el nivel de responsabilidad que se espera de ellas cuando ponen este tipo de herramientas al alcance de millones de personas.
Soy un apasionado de la tecnología que ha convertido sus intereses «frikis» en profesión. Llevo más de 10 años de mi vida utilizando tecnología de vanguardia y trasteando todo tipo de programas por pura curiosidad. Ahora me he especializado en tecnología de ordenador y videojuegos. Esto es por que desde hace más de 5 años que trabajo redactando para varias webs en materia de tecnología y videojuegos, creando artículos que buscan darte la información que necesitas con un lenguaje entendible por todos.
Si tienes cualquier pregunta, mis conocimientos van desde todo lo relacionado con el sistema operativo Windows así como Android para móviles. Y es que mi compromiso es contigo, siempre estoy dispuesto a dedicarte unos minutos y ayudarte a resolver cualquier duda que tengas en este mundo de internet.

