- Google ha retirado resúmenes de salud generados con IA en búsquedas médicas tras detectar errores potencialmente peligrosos.
- Las respuestas automáticas mostraban rangos de pruebas hepáticas y consejos oncológicos sin contexto clínico, algo que preocupa a especialistas europeos.
- Organizaciones sanitarias reclaman a Google priorizar fuentes oficiales y reforzar controles de calidad en IA aplicada a la salud.
- El auge de asistentes de salud basados en IA reabre el debate en Europa sobre fiabilidad, regulación y responsabilidad en información médica online.
La forma en que buscamos información sobre salud en internet está entrando en una fase delicada. Los grandes modelos de inteligencia artificial han dado el salto desde redactar correos o resumir noticias a ofrecer respuestas médicas directas en la parte más visible de los buscadores, lo que multiplica su impacto en el día a día de los pacientes.
I denne sammenhengen, Google se ha visto obligada a recular en una parte clave de su estrategia: los resúmenes generados con IA que aparecían en la parte superior de los resultados de búsqueda para consultas sanitarias sensibles. Tras varios fallos graves detectados por especialistas, la compañía ha empezado a retirar estas respuestas automáticas en determinadas búsquedas relacionadas con pruebas médicas y enfermedades.
Google retira resúmenes de salud generados por IA tras errores graves

En Madrid y en el resto de Europa, muchos usuarios conviven desde hace meses con los llamados AI-oversikter, los resúmenes automáticos que Google genera con IA generativa y que coloca por encima de los enlaces tradicionales. La idea es ofrecer una respuesta clara y rápida, pero cuando se trata de cuestiones médicas, el margen de error es mínimo.
Una investigación de The Guardian puso el foco precisamente en esos resúmenes de salud. El diario británico comprobó que, ante consultas sobre pruebas de función hepática, el sistema devolvía listas de cifras y rangos supuestamente “normales” sin aclarar aspectos básicos como la edad, el sexo, la etnia o el contexto clínico del paciente, elementos imprescindibles para interpretar un análisis de sangre.
Especialistas en hepatología alertaron de que esta presentación de datos podía llevar a personas con enfermedad hepática grave a pensar que sus resultados eran correctos y, en consecuencia, a dejar de acudir a revisiones médicas o ignorar síntomas preocupantes. No se trataba solo de una imprecisión: era un riesgo directo para la salud.
Tras la publicación de estos casos, Google decidió eliminar los AI Overviews en búsquedas concretas como “cuál es el rango normal de los análisis de sangre del hígado” o “resultado normal de una prueba de función hepática”. Sin embargo, el propio periódico comprobó que variaciones mínimas en la consulta, por ejemplo cambiar la formulación de la pregunta, seguían generando resúmenes automáticos con el mismo problema de contexto insuficiente.
La compañía, fiel a su política de comunicación, ha preferido no dar detalles sobre cada retirada concreta. Un portavoz se limitó a señalar que Google no comenta “eliminaciones individuales en la búsqueda” y que, cuando los resúmenes de IA omiten parte del contexto necesario, trabajan en mejoras generales y actúan según sus políticas internas cuando lo consideran oportuno.
Organizaciones sanitarias piden más prudencia con la IA médica

Las críticas no se han limitado al ámbito tecnológico. Desde el sector sanitario, voces especializadas han reclamado a Google un mayor nivel de cautela cuando se trata de temas de salud. Vanessa Hebditch, directora de comunicaciones y políticas del British Liver Trust, valoró positivamente la retirada de algunos resúmenes, pero advirtió de que el problema sigue ahí mientras la IA pueda generar respuestas engañosas con solo modificar ligeramente la búsqueda.
Hebditch recordó que las pruebas de función hepática engloban distintos tipos de análisis y que interpretarlos correctamente puede resultar complejo incluso para profesionales. Un listado automático de cifras sin aclarar de qué test se trata ni si encaja con el caso concreto de la persona es, en sus palabras, una fuente potencial de confusión que puede enmascarar patologías serias.
Otras organizaciones, como el Patient Information Forum, han aprovechado este caso para subrayar un problema de fondo: millones de adultos tienen ya dificultades para encontrar información médica fiable y comprensible. Si los buscadores incorporan capas de IA que, en la práctica, compiten con las fuentes tradicionales, el listón de calidad debería ser especialmente exigente.
Sue Farrington, presidenta de este foro, calificó la decisión de Google de retirar parte de los resúmenes como “un buen primer paso”, pero insistió en que todavía existen demasiados ejemplos de contenido sanitario incorrecto generado automáticamente. A su juicio, el papel del buscador debería ser dirigir a los usuarios hacia organismos sanitarios de referencia y entidades con criterios editoriales sólidos, en lugar de confiar en exceso en modelos probabilísticos que no sustituyen el juicio clínico.
En paralelo, expertos en tecnología y medios de comunicación han señalado que el caso evidencia una realidad incómoda: aunque Google afirma que algunos resúmenes sobre cáncer o salud mental se basan en fuentes acreditadas y recomiendan acudir a profesionales, el sistema no está libre de errores graves. Para editores como Victor Tangermann, del sitio Futurism, lo ocurrido demuestra que el despliegue de estas funciones en ámbitos delicados como la medicina todavía no está maduro.
Cuando la IA se convierte en puerta de entrada al “doctor internet”

El caso de los resúmenes de Google no se produce en el vacío. Desde hace años, millones de personas recurren al llamado “doctor Google” para comprobar síntomas, aclarar dudas tras una consulta o prepararse antes de ir al médico. Lo que cambia ahora es la capa tecnológica que se coloca entre el usuario y las fuentes originales.
Hasta hace poco, el modelo era relativamente claro: el buscador ofrecía una lista de enlaces y cada persona debía decidir en qué web confiaba. Ahora, los paneles de IA ocupan el espacio más visible y presentan la información como una respuesta cerrada y muy segura de sí misma, algo que puede reforzar la sensación de que no hace falta seguir buscando ni contrastar.
Este giro tiene implicaciones directas para la salud pública en Europa. En España, por ejemplo, los sistemas sanitarios autonómicos y el Ministerio de Sanidad han invertido en portales de información validados por expertos, pensados para que el ciudadano pueda consultar dudas de manera fiable. Si la capa de IA del buscador se queda con la atención del usuario antes de que llegue a esas webs, el riesgo de que se normalicen atajos poco rigurosos es evidente.
I tillegg, la manera de formular la pregunta se vuelve crucial. Como ha mostrado la investigación británica, cambiar una expresión por otra puede provocar que el sistema decida mostrar o no un resumen automático. Para un paciente medio, que no domina la jerga médica ni las particularidades del algoritmo, esta diferencia es prácticamente invisible, pero puede determinar si recibe una respuesta prudente o un mensaje equívoco.
En un escenario en el que las consultas médicas presenciales siguen teniendo tiempos limitados y las listas de espera preocupan a buena parte de la población, la tentación de delegar más decisiones en herramientas de IA es comprensible. Precisamente por eso, los fallos en estas respuestas automatizadas no son un detalle menor.
Todo apunta a que la combinación de buscadores tradicionales e inteligencia artificial generativa seguirá ocupando un lugar central en la manera en que la población europea se informa sobre salud. El paso atrás de Google con algunos resúmenes médicos ilustra hasta qué punto un error de interpretación puede tener consecuencias reales y refuerza la idea de que, por muy avanzados que sean los modelos, la información sanitaria necesita criterio clínico, contexto y supervisión humana para no convertirse en un riesgo adicional para los pacientes.
Jeg er en teknologientusiast som har gjort sine "geek"-interesser til et yrke. Jeg har brukt mer enn 10 år av livet mitt på å bruke banebrytende teknologi og fikse med alle slags programmer av ren nysgjerrighet. Nå har jeg spesialisert meg på datateknologi og videospill. Dette er fordi jeg i mer enn 5 år har skrevet for forskjellige nettsteder om teknologi og videospill, og laget artikler som prøver å gi deg den informasjonen du trenger på et språk som er forståelig for alle.
Hvis du har spørsmål, spenner min kunnskap fra alt relatert til Windows-operativsystemet samt Android for mobiltelefoner. Og mitt engasjement er til deg, jeg er alltid villig til å bruke noen minutter og hjelpe deg med å løse eventuelle spørsmål du måtte ha i denne internettverdenen.