Google retira Gemma de AI Studio tras la denuncia de una senadora

Última actualización: 04/11/2025

  • Google saca el modelo Gemma de AI Studio y lo limita a uso vía API para desarrolladores
  • La senadora Marsha Blackburn denuncia que la IA generó acusaciones falsas sobre conducta sexual
  • Google alega mal uso de una herramienta pensada para desarrolladores y reconoce el reto de las alucinaciones
  • El caso reaviva el debate político y legal sobre sesgos, difamación y responsabilidad en la IA

Inteligencia artificial de Google y senadora

La decisión de Google de retirar su modelo Gemma de la plataforma AI Studio llega tras la queja formal de la senadora estadounidense Marsha Blackburn, quien afirma que la IA generó acusaciones falsas en su contra. El episodio ha reavivado la discusión sobre los límites de los sistemas generativos y la responsabilidad de las tecnológicas cuando un modelo produce informaciones dañinas.

Gemma estaba concebido como un conjunto de modelos ligeros orientados a desarrolladores, no como asistente de consumo general. Aun así, usuarios accedieron a través de AI Studio y lo usaron para plantear preguntas de hechos, lo que habría desembocado en respuestas fabricadas y enlaces inexistentes.

Qué ocurrió y cómo se originó la polémica

Gemma ai google

Según la versión de la senadora, al preguntar “¿Marsha Blackburn ha sido acusada de violación?”, Gemma habría devuelto una narración detallada pero falsa que situaba los hechos durante una campaña al Senado estatal en 1987, e incluía supuestas presiones para obtener medicamentos y actos no consensuados que nunca existieron. La propia parlamentaria precisó que su campaña fue en 1998 y que jamás ha recibido una acusación de ese tipo.

Contenido exclusivo - Clic Aquí  Cómo hacer una copia de seguridad de GoodNotes en Google Drive

La respuesta de la IA habría incorporado además enlaces que llevaban a páginas de error o a noticias no relacionadas, presentados como si fuesen pruebas. Este punto es especialmente sensible, porque convierte una ‘alucinación’ en algo que se percibe como verificable, aunque no lo sea.

La reacción de Google y los cambios en el acceso a Gemma

Modelo de IA de Google y senadora

Tras la polémica, Google explicó que había detectado intentos de uso de Gemma por parte de personas no desarrolladoras en AI Studio, con consultas de carácter factual. Por ello, decidió retirar Gemma del acceso público en AI Studio y mantenerlo disponible exclusivamente a través de API para quienes construyen aplicaciones.

La compañía subrayó que Gemma es un modelo ‘developer-first’ y no un chatbot de consumo como Gemini, por lo que no está diseñado como verificador de hechos ni cuenta con herramientas específicas de recuperación de información. En palabras de la empresa, las alucinaciones son un reto de toda la industria y trabajan activamente para mitigarlas.

Contenido exclusivo - Clic Aquí  Cómo agregar notas del orador a las diapositivas de Google

Este cambio implica que ya no habrá una interfaz tipo chat en AI Studio para Gemma; su uso queda restringido a entornos de desarrollo y a integraciones controladas mediante API, un contexto donde el desarrollador asume salvaguardas y validaciones adicionales.

Dimensión legal y debate político sobre sesgos y difamación

Debate político sobre IA de Google y senadora

Blackburn envió una carta al CEO de Google, Sundar Pichai, calificando lo ocurrido no como un error inofensivo, sino como difamación producida por un modelo de IA. La senadora pidió explicaciones sobre cómo se generó el contenido, qué medidas existen para minimizar sesgos políticos o ideológicos y qué acciones se adoptarán para impedir repeticiones, fijando además un plazo para recibir la respuesta.

Durante una audiencia del Comité de Comercio del Senado, la parlamentaria también planteó el asunto al vicepresidente de Asuntos Gubernamentales y Políticas Públicas de Google, Markham Erickson, quien reconoció que las alucinaciones son un problema conocido y señaló que la compañía está trabajando para mitigarlas. El caso ha intensificado el foco sobre la responsabilidad de las compañías cuando sus modelos dañan la reputación de figuras públicas.

Contenido exclusivo - Clic Aquí  Google estrena 'Pixel VIPs', el nuevo widget para contactos destacados en dispositivos Pixel

La controversia se amplificó con otros episodios citados por conservadores, como el del activista Robby Starbuck, que asegura haber sido falsamente vinculado por Gemma con graves delitos y extremismo. En este contexto, se reaviva el debate sobre posibles sesgos en sistemas de IA y la necesidad de marcos de seguridad, supervisión y vías de recurso cuando se producen daños.

Más allá de las posiciones partidistas, el caso pone de relieve que modelos no pensados para interacción pública pueden ser malinterpretados como asistentes generales, difuminando la frontera entre prototipos de desarrollo y productos para el gran público, con riesgos evidentes si lo generado se toma como información verificada.

La retirada de Gemma de AI Studio y su confinamiento a la API marcan un intento de reconducir el uso del modelo al ámbito para el que fue concebido, a la par que abre interrogantes sobre los estándares de veracidad, las salvaguardas y la rendición de cuentas que deberán regir cuando una IA afecte a la reputación de personas reales, especialmente cargos públicos.