人工智能助手会收集哪些数据?如何保护您的隐私?

最后更新: 16/11/2025

  • AI 助手会存储内容、标识符、使用情况、位置和设备数据,在某些情况下会进行人工审核。
  • 整个生命周期(摄入、训练、推断和应用)都存在风险,包括快速注射和泄漏。
  • GDPR、人工智能法案以及 NIST AI RMF 等框架要求透明度、风险最小化和与风险相称的控制措施。
  • 配置活动、权限和自动删除;保护敏感数据,使用双因素身份验证,并审查策略和提供商。

人工智能助手会收集哪些数据?如何保护您的隐私?

人工智能在极短的时间内从充满希望的设想变成了常规技术,随之而来的是一些非常具体的疑问: 人工智能助手会收集哪些数据?他们如何使用这些信息,以及我们如何保护自己的信息安全。如果您使用聊天机器人、浏览器助手或生成模型,最好尽快掌控自己的隐私。

除了是非常有用的工具之外,这些系统还依赖于大规模数据。 该信息的数量、来源和处理方式 它们带来了新的风险:从推断个人特征到意外泄露敏感内容。在这里,您将详细了解它们会捕捉什么、为什么这样做、法律对此有何规定,并且不会拐弯抹角。 如何保护您的帐户和活动. 让我们了解一下 AI助手会收集哪些数据?如何保护您的隐私? 

人工智能助手实际收集哪些数据?

现代助手的功能远不止处理你的问题。 联系信息、标识符、使用情况和内容 这些信息通常包含在标准类别中。我们指的是姓名和电子邮件地址,但也包括 IP 地址、设备信息、交互日志、错误信息,当然还有您生成或上传的内容(消息、文件、图像或公共链接)。

在谷歌生态系统中,Gemini 的隐私声明准确地描述了它收集的信息。 来自连接应用程序的信息 (例如,搜索或 YouTube 历史记录、Chrome 上下文)、设备和浏览器数据(类型、设置、标识符)、性能和调试指标,甚至在用户授权的情况下,还可以获取移动设备上的系统权限(例如,访问联系人、通话记录和消息或屏幕内容)。

他们也从事交易 位置数据 (设备大致位置、IP 地址或帐户中保存的地址)以及付费套餐的订阅详情。此外,还会存储以下信息: 模型生成的自有内容 (文本、代码、音频、图像或摘要),这是了解您在使用这些工具时留下的痕迹的关键。

需要注意的是,数据收集不仅限于训练: 与会者可以实时记录活动。 在使用过程中(例如,当您依赖扩展程序或插件时),这包括遥测数据和应用程序事件。因此,控制权限和审查活动设置至关重要。

他们用这些数据做什么?谁可以看到这些数据?

公司经常援引广泛且反复出现的目的: 提供、维护和改进服务,实现个性化体验,并开发新功能与您沟通、衡量性能、保护用户和平台。所有这些也都延伸到了机器学习技术和生成模型本身。

过程中一个敏感的部分是 人工审核许多供应商都承认,内部员工或服务提供商会审查交互样本,以提高安全性和质量。因此,他们一致建议:避免包含您不希望他人看到的机密信息,或用于改进模型的信息。

在已知的政策中,一些服务表明它们不会出于广告目的共享某些数据,尽管 是的,他们可以向有关部门提供信息。 根据法律要求。其他一些事情,就其性质而言, 与广告商或合作伙伴共享 用于分析和细分的标识符和聚合信号,为用户画像打开了大门。

治疗方案还包括: 按预定期限保留例如,一些服务提供商默认设置18个月的自动删除期限(可调整为3个月、36个月或无限期),并出于质量和安全考虑,将已审核的对话保留更长时间。如果您希望最大限度地减少您的数字足迹,建议您查看保留期限并启用自动删除功能。

独家内容 - 点击这里  如何确保我的 Apple 设备受到保护?

人工智能生命周期中的隐私风险

选择人工智能玩具

隐私问题并非只发生在某个环节,而是贯穿整个流程: 数据摄取、训练、推理和应用层在大规模数据收集过程中,敏感数据可能在未经适当许可的情况下被无意中纳入;在训练过程中,很容易超出最初的预期用途;在推理过程中,模型可能 推断个人特征 从看似微不足道的信号开始;在应用程序中,API 或 Web 界面是攻击者的理想目标。

使用生成式系统时,风险会成倍增加(例如, 人工智能玩具). 未经明确许可从互联网提取的数据集 它们可能包含个人信息,某些恶意提示(提示注入)试图操纵模型以过滤敏感内容或执行危险指令。另一方面,许多用户 他们粘贴机密数据 而没有考虑到它们可能会被存储或用于调整模型的未来版本。

学术研究揭示了一些具体问题。最近一项关于……的分析 浏览器助手 它检测到了广泛的追踪和用户画像行为,包括将搜索内容、敏感表单数据和IP地址传输到服务提供商的服务器。此外,它还证明了其能够推断用户的年龄、性别、收入和兴趣,并且个性化设置会在不同的会话中持续存在;在该研究中, 只有一项服务没有显示出任何用户画像的迹象。.

过往事件提醒我们,这种风险并非理论上的: 安全漏洞 他们泄露了聊天记录或用户元数据,攻击者已经开始利用建模技术提取训练信息。更糟糕的是, AI管道自动化 如果在设计之初没有采取安全措施,就很难发现隐私问题。

法律和相关规定是怎么说的?

大多数国家已经拥有 隐私规则 这些法律法规目前均已生效,虽然并非所有法规都专门针对人工智能,但它们适用于任何处理个人数据的系统。在欧洲, RGPD 它要求合法性、透明度、最小化、目的限制和安全性;此外, 人工智能法 欧洲引入风险类别,禁止高影响做法(例如……) 社会得分 公共)并对高风险系统施加严格的要求。

在美国,州级法规,例如 CCPA 或德克萨斯州法律 它们赋予用户访问、删除和选择退出数据出售的权利,而犹他州法律等举措则进一步推动了这一权利的实现。 他们要求在用户交互时收到清晰的通知。 与生成系统。这些规范层与社会期望并存:民意调查显示 对负责任的使用表现出明显的不信任 公司的数据,以及用户自我认知与其实际行为之间的差异(例如,不阅读政策就接受政策)。

为了奠定风险管理的基础,需要构建以下框架: 美国国家标准与技术研究院(AI RMF) 它提出了四项持续性职能:治理(负责任的政策和监督)、映射(了解背景和影响)、衡量(使用指标评估和监控风险)以及管理(确定优先级和缓解措施)。这种方法 有助于调整控制 根据系统的风险等级。

谁收集的最多:最受欢迎聊天机器人的X光片

最近的比较研究将不同的助手置于一个收集能力的谱系上。 谷歌的Gemini位居榜首 通过收集各个类别(包括移动联系人,如果获得许可)中数量最多的唯一数据点,这在其他竞争对手中很少见。

中等价位的解决方案包括: Claude、Copilot、DeepSeek、ChatGPT 和 Perplexity包含十到十三种类型的数据,数据组合包括联系方式、位置、标识符、内容、历史记录、诊断、使用情况和购买情况。 格罗克 它位于较低部分,信号种类也比较有限。

独家内容 - 点击这里  使用 Tinder 安全吗?

也存在一些差异 后续使用已有记录显示,某些服务会与广告商和商业伙伴共享某些标识符(例如加密电子邮件)和用于用户细分的信号,而另一些服务则声称不会将数据用于广告目的或出售数据,但他们保留回应法律请求或将数据用于其他用途的权利。 改进系统除非用户要求删除。

从最终用户的角度来看,这可以归结为一条明确的建议: 仔细阅读各供应商的政策调整应用程序的权限,并有意识地决定在每种情况下要提供哪些信息,尤其是在上传文件或分享敏感内容时。

保护隐私的基本最佳实践

首先,仔细配置每个助手的设置。 探究存储了哪些内容、存储了多长时间以及存储用途。如果可用,请启用自动删除功能。请定期查看策略,因为策略会频繁更改,并且可能包含新的控制选项。

避免分享 个人和敏感数据 提示信息中不得包含密码、信用卡号、医疗记录或公司内部文件。如果需要处理敏感信息,请考虑使用匿名化机制、封闭环境或本地部署解决方案。 加强治理.

使用强密码保护您的帐户 两步验证 (2FA)未经授权访问您的帐户会泄露您的浏览历史记录、上传的文件和偏好设置,这些信息可用于极具可信度的社会工程攻击或非法出售数据。

如果平台允许的话, 关闭聊天记录 或者采用临时方案。这种简单的措施可以降低发生安全漏洞时的风险,以往涉及热门人工智能服务的事件就证明了这一点。

不要盲目相信答案。模型可能会出错。 产生幻觉、抱有偏见或被操纵 通过恶意提示注入,会导致错误的指令、虚假数据或敏感信息的窃取。在法律、医疗或金融事务中,请与此进行对比。 官方资料.

务必格外小心 链接、文件和代码 这是由人工智能提供的。其中可能包含恶意内容或故意引入的漏洞(数据投毒)。点击链接前请验证网址,并使用信誉良好的安全解决方案扫描文件。

怀疑 扩展和插件 来源可疑。市面上充斥着大量基于人工智能的插件,但并非所有插件都可靠;为了最大程度地降低恶意软件的风险,请仅从信誉良好的来源安装必要的插件。

在企业领域,规范采纳流程。定义 人工智能特定治理政策它将数据收集限制在必要范围内,要求用户知情同意,审核供应商和数据集(供应链),并部署技术控制措施(例如数据防泄漏、监控人工智能应用程序的流量等)。 细粒度的访问控制).

意识是保护屏障的一部分: 组建你的团队 在人工智能风险、高级网络钓鱼和合乎伦理的使用方面,行业内一些组织(例如专业机构)发起的共享人工智能事件信息的倡议,有助于持续学习和改进防御措施。

在 Google Gemini 中配置隐私和活动

如果您使用 Gemini,请登录您的帐户并检查“Gemini Apps 中的活动您可以在这里查看和删除互动记录,更改自动删除期限(默认 18 个月,可调整为 3 个月或 36 个月,或无限期),并决定是否将其用于其他用途。 改进人工智能 谷歌。

需要注意的是,即使禁用了保存功能, 您的对话将用于回复 并在人工审核员的支持下维护系统安全。经审核的对话(以及相关数据,例如语言、设备类型或大致位置)可能会被保留。 长达三年.

在移动设备上, 检查应用权限位置、麦克风、摄像头、联系人或屏幕内容访问权限。如果您依赖语音输入或语音激活功能,请记住,系统可能会被与关键词相似的声音误激活;根据设置,这些声音片段可能会…… 用于改进模型 并减少不必要的激活。

独家内容 - 点击这里  信号安全吗?

如果您将 Gemini 与其他应用程序(Google 或第三方)连接,请记住,每个应用程序都会根据自己的政策处理数据。 他们自己的政策在 Canvas 等功能中,应用创建者可以看到并保存你分享的内容,任何拥有公开链接的人都可以查看或编辑这些数据:只与受信任的应用分享。

在适用地区,升级到某些体验可能 导入通话和短信记录 我们会收集您的网络和应用活动数据,以及 Gemini 专属活动数据,以改进推荐内容(例如联系人)。如果您不希望这样做,请在继续操作前调整设置。

“影子人工智能”的大规模应用、监管和发展趋势

收养率非常高:最近的报告显示 绝大多数组织已经部署了人工智能模型即便如此,许多团队在安全和治理方面仍缺乏足够的成熟度,尤其是在监管严格或敏感数据量巨大的行业。

商业领域的研究揭示了不足之处:西班牙企业中存在非常高比例的缺陷。 它尚未做好保护人工智能环境的准备而且大多数企业缺乏保护云模型、数据流和基础设施所需的基本实践。与此同时,监管力度不断加强,新的威胁也在不断涌现。 违规处罚 GDPR 和当地法规。

与此同时,这种现象…… 影子人工智能 这种情况越来越普遍:员工使用外部助手或个人账户处理工作任务,导致内部数据泄露,而没有安全控制措施或与供应商签订合同。有效的应对措施并非全面禁止,而是…… 确保安全使用 在受控环境下,使用经批准的平台并监控信息流。

在消费者方面,主要供应商正在调整其政策。例如,最近的一些变化解释了…… 与 Gemini 合作“改善服务”提供诸如临时对话、活动和自定义控制等选项。与此同时,即时通讯公司强调: 私人聊天功能仍然无法使用。 默认情况下会发送给人工智能,尽管他们建议不要将你不想让公司知道的信息发送给人工智能。

此外,还有公共矫正机构:服务 文件传输 在对条款变更提出质疑后,他们澄清说,他们不会使用用户内容来训练模型或将其出售给第三方。这种社会和法律压力正促使他们做出更清晰的表述。 赋予用户更多控制权.

展望未来,科技公司正在探索各种方法…… 减少对敏感数据的依赖自我改进模型、更强大的处理器和合成数据生成技术,这些进步有望缓解数据短缺和授权问题。然而,专家警告称,如果人工智能加速自身能力发展并应用于网络入侵或操纵等领域,则可能出现新的风险。

人工智能既是防御手段也是威胁。安全平台已经集成了相关模型。 检测并响应 速度更快,而攻击者则利用LLM来 具有说服力的网络钓鱼和深度伪造这场拉锯战需要对技术控制、供应商评估、持续审计等方面进行持续投资,以及 设备不断更新.

人工智能助手会收集关于您的多项信息,包括您输入的内容、设备数据、使用情况和位置。根据具体服务,部分信息可能会由人工审核或与第三方共享。如果您想在不损害隐私的前提下利用人工智能,请结合以下措施:精细化设置(历史记录、权限、自动删除)、谨慎操作(不共享敏感数据、验证链接和文件、限制文件扩展名)、访问保护(强密码和双因素身份验证),以及主动监控可能影响您隐私的政策变更和新功能。 您的数据如何使用和存储.

Gemini Deep Research Google Drive
相关文章:
Gemini Deep Research 可与 Google 云端硬盘、Gmail 和 Chat 连接。