- Os asistentes de IA almacenan contido, identificadores, uso, localización e datos do dispositivo, con revisión humana nalgúns casos.
- Existen riscos ao longo de todo o ciclo de vida (inxestión, adestramento, inferencia e aplicación), incluíndo a inxección rápida e as fugas.
- O RGPD, a Lei de IA e marcos como o NIST AI RMF requiren transparencia, minimización e controis proporcionais ao risco.
- Configura a actividade, os permisos e a eliminación automática; protexe os datos confidenciais, usa a autenticación en dous factores e revisa as políticas e os provedores.

A intelixencia artificial pasou de ser unha promesa a ser rutinaria nun tempo récord e, con ela, xurdiron dúbidas moi específicas: Que datos recollen os asistentes de IA?Como as usan e que podemos facer para manter a nosa información segura. Se usas chatbots, asistentes de navegador ou modelos xerativos, é boa idea tomar o control da túa privacidade canto antes.
Ademais de seren ferramentas tremendamente útiles, estes sistemas aliméntanse de datos a grande escala. O volume, a orixe e o tratamento desa información Introducen novos riscos: desde a inferencia de trazos persoais ata a exposición accidental de contido sensible. Aquí atoparás, en detalle e sen rodeos, o que capturan, por que o fan, o que di a lei e Como protexer as túas contas e a túa actividadeAprendamos todo sobre Que datos recollen os asistentes de IA e como protexer a túa privacidade.
Que datos recollen realmente os asistentes de IA?
Os asistentes modernos procesan moito máis que só as túas preguntas. Información de contacto, identificadores, uso e contido Normalmente inclúense nas categorías estándar. Falamos de nome e correo electrónico, pero tamén de enderezos IP, información do dispositivo, rexistros de interacción, erros e, por suposto, o contido que xeras ou cargas (mensaxes, ficheiros, imaxes ou ligazóns públicas).
Dentro do ecosistema de Google, o aviso de privacidade de Gemini describe con precisión o que recolle información das aplicacións conectadas (por exemplo, o historial de busca ou de YouTube, o contexto de Chrome), os datos do dispositivo e do navegador (tipo, configuración, identificadores), as métricas de rendemento e depuración e mesmo os permisos do sistema en dispositivos móbiles (como o acceso aos contactos, aos rexistros de chamadas e ás mensaxes ou ao contido en pantalla) cando o usuario o autorice.
Tamén tratan datos de localización (localización aproximada do dispositivo, enderezo IP ou enderezos gardados na conta) e detalles da subscrición se usas plans de pago. Ademais, almacénanse os seguintes datos: contido propio que xeran os modelos (texto, código, audio, imaxes ou resumos), algo clave para comprender a pegada que deixas ao interactuar con estas ferramentas.
Cómpre sinalar que a recollida de datos non se limita á formación: Os asistentes poden rexistrar a actividade en tempo real Durante o uso (por exemplo, cando se depende de extensións ou complementos), isto inclúe a telemetría e os eventos da aplicación. Isto explica por que é crucial controlar os permisos e revisar a configuración da actividade.
Para que usan eses datos e quen pode velos?
As empresas adoitan invocar propósitos amplos e recorrentes: Para proporcionar, manter e mellorar o servizo, personalizar a experiencia e desenvolver novas funcionalidadespara comunicarse contigo, medir o rendemento e protexer o usuario e a plataforma. Todo isto tamén se estende ás tecnoloxías de aprendizaxe automática e aos propios modelos xerativos.
Unha parte sensible do proceso é a revisión humanaVarios provedores recoñecen que o persoal interno ou os provedores de servizos revisan as mostras de interacción para mellorar a seguridade e a calidade. De aí a recomendación consistente: evita incluír información confidencial que non queres que unha persoa vexa ou que se poida usar para refinar modelos.
En políticas coñecidas, algúns servizos indican que non comparten certos datos con fins publicitarios, aínda que Si, poden proporcionar información ás autoridades. por esixencia legal. Outros, pola súa natureza, compartir con anunciantes ou socios identificadores e sinais agregados para análise e segmentación, o que abre a porta á elaboración de perfís.
O tratamento tamén inclúe, retención durante períodos predefinidosPor exemplo, algúns provedores establecen un período de eliminación automática predeterminado de 18 meses (axustable a 3, 36 ou indefinido) e conservan as conversas revisadas durante períodos máis longos por motivos de calidade e seguridade. É recomendable revisar os períodos de retención e activar a eliminación automática se queres minimizar a túa pegada dixital.
Riscos de privacidade ao longo do ciclo de vida da IA

A privacidade non está en xogo nun só punto, senón en toda a cadea: inxestión de datos, adestramento, inferencia e capa de aplicaciónNa recollida masiva de datos, os datos sensibles poden incluírse accidentalmente sen o consentimento axeitado; durante o adestramento, é doado que se superen as expectativas de uso orixinais; e durante a inferencia, os modelos poden inferir trazos persoais partindo de sinais aparentemente triviais; e na aplicación, as API ou as interfaces web son obxectivos atractivos para os atacantes.
Cos sistemas xerativos, os riscos multiplícanse (por exemplo, Xoguetes de IA). Conxuntos de datos extraídos de Internet sen permiso explícito Poden conter información persoal e certas solicitudes maliciosas (inxección de solicitudes) buscan manipular o modelo para filtrar contido sensible ou executar instrucións perigosas. Por outra banda, moitos usuarios Pegan datos confidenciais sen ter en conta que poderían almacenarse ou empregarse para axustar versións futuras do modelo.
A investigación académica puxo de manifesto problemas específicos. Unha análise recente sobre asistentes do navegador Detectou prácticas xeneralizadas de seguimento e elaboración de perfís, coa transmisión de contido de busca, datos confidenciais de formularios e enderezos IP aos servidores do provedor. Ademais, demostrou a capacidade de inferir a idade, o xénero, os ingresos e os intereses, cunha personalización que persiste en diferentes sesións; nese estudo, Só un servizo non mostrou evidencias de elaboración de perfís.
A historia dos incidentes lémbranos que o risco non é teórico: violacións de seguridade Expuxeron historiais de chat ou metadatos de usuarios e os atacantes xa están a aproveitar técnicas de modelado para extraer información de adestramento. Para empeorar as cousas, Automatización de canles de IA Dificulta a detección de problemas de privacidade se non se deseñan medidas de seguridade desde o principio.
Que din as leis e os marcos normativos?
A maioría dos países xa teñen Normas de privacidade vixentes e, aínda que non todas son específicas da IA, aplícanse a calquera sistema que procese datos persoais. En Europa, as RGPD Require legalidade, transparencia, minimización, limitación de propósitos e seguridade; ademais, o Acto AI Europea introduce categorías de risco, prohibe prácticas de alto impacto (como as puntuación social público) e impón requisitos estritos a sistemas de alto risco.
Nos Estados Unidos, as regulacións estatais como CCPA ou lei de Texas Conceden dereitos de acceso, eliminación e exclusión voluntaria da venda de datos, mentres que iniciativas como a lei de Utah Exixen notificacións claras cando o usuario interactúa con sistemas xerativos. Estas capas normativas coexisten coas expectativas sociais: as enquisas de opinión mostran un notable desconfianza cara ao uso responsable de datos por parte das empresas e unha discrepancia entre a autopercepción dos usuarios e o seu comportamento real (por exemplo, aceptar políticas sen lelas).
Para a xestión de riscos na terra, o marco de NIST (RMF da IA) Propón catro funcións continuas: Gobernar (políticas responsables e supervisión), Mapear (comprender o contexto e os impactos), Medir (avaliar e monitorizar os riscos con métricas) e Xestionar (priorizar e mitigar). Esta estratexia axuda a adaptar os controis segundo o nivel de risco do sistema.
Quen colecciona máis: unha radiografía dos chatbots máis populares
As comparacións recentes sitúan os diferentes asistentes nun espectro de coleccións. Gemini de Google encabeza o ranking ao recoller o maior número de puntos de datos únicos en varias categorías (incluídos os contactos móbiles, se se conceden permisos), algo que raramente aparece noutros competidores.
No rango medio, as solucións inclúen como Claude, Copilot, DeepSeek, ChatGPT e Perplexity, con entre dez e trece tipos de datos, variando a combinación entre contacto, localización, identificadores, contido, historial, diagnósticos, uso e compras. Grok Está situado na parte inferior cun conxunto de sinais máis limitado.
Tamén hai diferenzas en uso posteriorDocumentouse que algúns servizos comparten certos identificadores (como correos electrónicos cifrados) e sinais para a segmentación con anunciantes e socios comerciais, mentres que outros afirman que non usan datos con fins publicitarios nin os venden, aínda que se reservan o dereito de responder a solicitudes legais ou usalos para... mellorar o sistema, a menos que o usuario solicite a eliminación.
Desde a perspectiva do usuario final, isto tradúcese nun consello claro: Revisar as políticas de cada provedorAxusta os permisos da aplicación e decide conscientemente que información revelas en cada contexto, especialmente se vas subir ficheiros ou compartir contido confidencial.
Boas prácticas esenciais para protexer a túa privacidade
Primeiro de todo, configura coidadosamente a configuración de cada asistente. Explora o que se almacena, durante canto tempo e con que propósito.e activa a eliminación automática se está dispoñible. Revisa as políticas periodicamente, xa que cambian con frecuencia e poden incluír novas opcións de control.
Evita compartir datos persoais e sensibles Nas túas indicacións: sen contrasinais, números de tarxetas de crédito, historiales médicos nin documentos internos da empresa. Se necesitas xestionar información confidencial, considera mecanismos de anonimización, entornos pechados ou solucións locais. gobernanza reforzada.
Protexa as súas contas con contrasinais fortes e autenticación en dous pasos (2FA)O acceso non autorizado á túa conta expón o teu historial de navegación, os ficheiros cargados e as preferencias, que poden empregarse para ataques de enxeñaría social moi credibles ou para a venda ilícita de datos.
Se a plataforma o permite, desactivar o historial de chat Ou emprega modalidades temporais. Esta sinxela medida reduce a túa exposición en caso de violación, como demostraron incidentes pasados relacionados con servizos populares de IA.
Non confíes cegamente nas respostas. Os modelos poden alucinar, ser parcial ou manipulado mediante inxección maliciosa de mensaxes, que leva a instrucións erróneas, datos falsos ou a extracción de información confidencial. Para asuntos legais, médicos ou financeiros, contraste con fontes oficiais.
Extremar as precaucións con ligazóns, ficheiros e código que ofrece a IA. Pode haber contido malicioso ou vulnerabilidades introducidas deliberadamente (envelenamento de datos). Verifique as URL antes de facer clic e analice ficheiros con solucións de seguridade de confianza.
Desconfianza extensións e complementos de orixe dubidosa. Hai un mar de complementos baseados en IA e non todos son fiables; instala só os esenciais de fontes fiables para minimizar o risco de software malicioso.
No ámbito corporativo, pon orde no proceso de adopción. Define Políticas de gobernanza específicas da IALimita a recollida de datos ao necesario, require consentimento informado, audita os provedores e os conxuntos de datos (cadea de subministración) e implementa controis técnicos (como DLP, monitorización do tráfico ás aplicacións de IA e controis de acceso granulares).
A conciencia forma parte do escudo: crea o teu equipo en riscos de IA, phishing avanzado e uso ético. As iniciativas do sector que comparten información sobre incidentes de IA, como as impulsadas por organizacións especializadas, fomentan a aprendizaxe continua e a mellora das defensas.
Configurar a privacidade e a actividade en Google Gemini
Se usas Gemini, inicia sesión na túa conta e marca "Actividade nas aplicacións de GeminiAlí podes ver e eliminar interaccións, cambiar o período de eliminación automática (predeterminado 18 meses, axustable a 3 ou 36 meses ou indefinido) e decidir se se usan para mellorar a IA de Google.
É importante saber que, mesmo co gardado desactivado, As túas conversas úsanse para responder e manter a seguridade do sistema, coa axuda de revisores humanos. As conversas revisadas (e os datos asociados, como o idioma, o tipo de dispositivo ou a localización aproximada) poden conservarse. ata tres anos.
En dispositivos móbiles, Comproba os permisos da aplicaciónLocalización, micrófono, cámara, contactos ou acceso a contido en pantalla. Se dependes das funcións de ditado ou activación por voz, lembra que o sistema pode activarse por erro con sons similares á palabra clave; dependendo da configuración, estes fragmentos poderían para mellorar os modelos e reducir as activacións non desexadas.
Se conectas Gemini con outras aplicacións (de Google ou de terceiros), ten en conta que cada unha procesa os datos segundo as súas propias políticas. as súas propias políticasEn funcións como Canvas, o creador da aplicación pode ver e gardar o que compartes e calquera persoa coa ligazón pública pode ver ou editar eses datos: compárteos só con aplicacións de confianza.
Nas rexións onde corresponda, a actualización a determinadas experiencias pode Importar o historial de chamadas e mensaxes Desde a túa actividade web e de aplicacións ata a actividade específica de Gemini, para mellorar as suxestións (por exemplo, os contactos). Se non queres isto, axusta os controis antes de continuar.
Uso masivo, regulación e tendencia da "IA na sombra"
A adopción é abrumadora: informes recentes indican que A gran maioría das organizacións xa implementan modelos de IAAínda así, moitos equipos carecen da madurez suficiente en seguridade e gobernanza, especialmente en sectores con regulacións estritas ou grandes volumes de datos confidenciais.
Os estudos no sector empresarial revelan carencias: unha porcentaxe moi alta de organizacións en España Non está preparado para protexer entornos impulsados pola IAe a maioría carecen de prácticas esenciais para protexer os modelos de nube, os fluxos de datos e a infraestrutura. Paralelamente, as accións regulatorias están a endurecerse e están a xurdir novas ameazas. sancións por incumprimento do RGPD e das normativas locais.
Mentres tanto, o fenómeno de sombra AI Está a medrar: os empregados empregan asistentes externos ou contas persoais para tarefas laborais, o que expón datos internos sen controis de seguridade nin contratos con provedores. A resposta eficaz non é prohibilo todo, senón... permitir usos seguros en contornas controladas, con plataformas homologadas e monitorización do fluxo de información.
No ámbito do consumo, os principais provedores están a axustar as súas políticas. Os cambios recentes explican, por exemplo, como o actividade con Gemini para “mellorar os servizos”ofrecendo opcións como Conversa temporal e controis de actividade e personalización. Ao mesmo tempo, as empresas de mensaxería salientan que Os chats persoais seguen sendo inaccesibles ás IA por defecto, aínda que desaconsellan enviar información á IA que non queres que a empresa saiba.
Tamén hai correccións públicas: servizos de transferencia de ficheiros Aclararon que non empregan contido de usuario para adestrar modelos nin vendelo a terceiros, despois de expresar a súa preocupación polos cambios nos termos. Esta presión social e legal está a empuxalos a ser máis claros e darlle ao usuario máis control.
De cara ao futuro, as empresas tecnolóxicas están a explorar xeitos de reducir a dependencia de datos sensiblesModelos que se automelloran, mellores procesadores e xeración de datos sintéticos. Estes avances prometen aliviar a escaseza de datos e os problemas de consentimento, aínda que os expertos advirten de riscos emerxentes se a IA acelera as súas propias capacidades e se aplica a áreas como a ciberintrusión ou a manipulación.
A IA é tanto unha defensa como unha ameaza. As plataformas de seguridade xa integran modelos para detectar e responder máis rápido, mentres que os atacantes usan LLM para phishing persuasivo e deepfakesEste tira e afrouxa require un investimento sostido en controis técnicos, avaliación de provedores, auditorías continuas e actualizacións constantes de equipos.
Os asistentes de IA recollen múltiples sinais sobre ti, desde o contido que escribes ata os datos do dispositivo, o uso e a localización. Parte desta información pode ser revisada por humanos ou compartida con terceiros, dependendo do servizo. Se queres aproveitar a IA sen comprometer a túa privacidade, combina axustes finos (historial, permisos, eliminación automática), prudencia operativa (non compartas datos confidenciais, verifica ligazóns e ficheiros, limita as extensións de ficheiros), protección de acceso (contrasinais fortes e 2FA) e monitorización activa de cambios en políticas e novas funcións que poidan afectar a túa privacidade. como se usan e almacenan os teus datos.
Apaixonado pola tecnoloxía dende pequeno. Encántame estar ao día no sector e, sobre todo, comunicalo. Por iso levo moitos anos dedicado á comunicación en webs de tecnoloxía e videoxogos. Podes atoparme escribindo sobre Android, Windows, MacOS, iOS, Nintendo ou calquera outro tema relacionado que se che ocorra.