- Google saca el modelo Gemma de AI Studio y lo limita a uso vía API para desarrolladores
- La senadora Marsha Blackburn denuncia que la IA generó acusaciones falsas sobre conducta sexual
- Google alega mal uso de una herramienta pensada para desarrolladores y reconoce el reto de las alucinaciones
- El caso reaviva el debate político y legal sobre sesgos, difamación y responsabilidad en la IA
La decisión de Google de retirar su modelo Gemma de la plataforma AI Studio llega tras la queja formal de la senadora estadounidense Marsha Blackburn, quien afirma que la IA generó acusaciones falsas en su contra. El episodio ha reavivado la discusión sobre los límites de los sistemas generativos y la responsabilidad de las tecnológicas cuando un modelo produce informaciones dañinas.
Gemma estaba concebido como un conjunto de modelos ligeros orientados a desarrolladores, no como asistente de consumo general. Aun así, usuarios accedieron a través de AI Studio y lo usaron para plantear preguntas de hechos, lo que habría desembocado en respuestas fabricadas y enlaces inexistentes.
Qué ocurrió y cómo se originó la polémica
Según la versión de la senadora, al preguntar “¿Marsha Blackburn ha sido acusada de violación?”, Gemma habría devuelto una narración detallada pero falsa que situaba los hechos durante una campaña al Senado estatal en 1987, e incluía supuestas presiones para obtener medicamentos y actos no consensuados que nunca existieron. La propia parlamentaria precisó que su campaña fue en 1998 y que jamás ha recibido una acusación de ese tipo.
La respuesta de la IA habría incorporado además enlaces que llevaban a páginas de error o a noticias no relacionadas, presentados como si fuesen pruebas. Este punto es especialmente sensible, porque convierte una ‘alucinación’ en algo que se percibe como verificable, aunque no lo sea.
La reacción de Google y los cambios en el acceso a Gemma

Tras la polémica, Google explicó que había detectado intentos de uso de Gemma por parte de personas no desarrolladoras en AI Studio, con consultas de carácter factual. Por ello, decidió retirar Gemma del acceso público en AI Studio y mantenerlo disponible exclusivamente a través de API para quienes construyen aplicaciones.
La compañía subrayó que Gemma es un modelo ‘developer-first’ y no un chatbot de consumo como Gemini, por lo que no está diseñado como verificador de hechos ni cuenta con herramientas específicas de recuperación de información. En palabras de la empresa, las alucinaciones son un reto de toda la industria y trabajan activamente para mitigarlas.
Este cambio implica que ya no habrá una interfaz tipo chat en AI Studio para Gemma; su uso queda restringido a entornos de desarrollo y a integraciones controladas mediante API, un contexto donde el desarrollador asume salvaguardas y validaciones adicionales.
Dimensión legal y debate político sobre sesgos y difamación

Blackburn envió una carta al CEO de Google, Sundar Pichai, calificando lo ocurrido no como un error inofensivo, sino como difamación producida por un modelo de IA. La senadora pidió explicaciones sobre cómo se generó el contenido, qué medidas existen para minimizar sesgos políticos o ideológicos y qué acciones se adoptarán para impedir repeticiones, fijando además un plazo para recibir la respuesta.
Durante una audiencia del Comité de Comercio del Senado, la parlamentaria también planteó el asunto al vicepresidente de Asuntos Gubernamentales y Políticas Públicas de Google, Markham Erickson, quien reconoció que las alucinaciones son un problema conocido y señaló que la compañía está trabajando para mitigarlas. El caso ha intensificado el foco sobre la responsabilidad de las compañías cuando sus modelos dañan la reputación de figuras públicas.
La controversia se amplificó con otros episodios citados por conservadores, como el del activista Robby Starbuck, que asegura haber sido falsamente vinculado por Gemma con graves delitos y extremismo. En este contexto, se reaviva el debate sobre posibles sesgos en sistemas de IA y la necesidad de marcos de seguridad, supervisión y vías de recurso cuando se producen daños.
Más allá de las posiciones partidistas, el caso pone de relieve que modelos no pensados para interacción pública pueden ser malinterpretados como asistentes generales, difuminando la frontera entre prototipos de desarrollo y productos para el gran público, con riesgos evidentes si lo generado se toma como información verificada.
La retirada de Gemma de AI Studio y su confinamiento a la API marcan un intento de reconducir el uso del modelo al ámbito para el que fue concebido, a la par que abre interrogantes sobre los estándares de veracidad, las salvaguardas y la rendición de cuentas que deberán regir cuando una IA afecte a la reputación de personas reales, especialmente cargos públicos.
Soy un apasionado de la tecnología que ha convertido sus intereses «frikis» en profesión. Llevo más de 10 años de mi vida utilizando tecnología de vanguardia y trasteando todo tipo de programas por pura curiosidad. Ahora me he especializado en tecnología de ordenador y videojuegos. Esto es por que desde hace más de 5 años que trabajo redactando para varias webs en materia de tecnología y videojuegos, creando artículos que buscan darte la información que necesitas con un lenguaje entendible por todos.
Si tienes cualquier pregunta, mis conocimientos van desde todo lo relacionado con el sistema operativo Windows así como Android para móviles. Y es que mi compromiso es contigo, siempre estoy dispuesto a dedicarte unos minutos y ayudarte a resolver cualquier duda que tengas en este mundo de internet.