- Anthropic 为用户引入了明确的偏好,让他们选择是否将他们与 Claude 的对话用于训练。
- 此更改影响免费、专业和最大计划;工作、政府、教育和 API 使用(Bedrock、Vertex AI)除外。
- 如果您参加,数据保留五年;如果您不参加,数据保留三十天;已删除的聊天记录不会用于培训。
- 您必须在 28 年 2025 月 XNUMX 日之前设置您的偏好;您可以随时在隐私中更改它。
与人工智能助手交谈已经变得非常正常,但我们很少考虑这一点。 那些会谈进展如何?. 现在 Anthropic 推出 克劳德的隐私发生了相关变化:截止日期过后,每个用户都必须决定是否允许使用他们的对话来训练未来的模型。
该公司将要求那些在 Free、Pro 和 Max 计划中使用 Claude 的用户 28 年 2025 月 XNUMX 日之前选择您的偏好如果没有这个选择,继续使用该服务会变得更加困难;该决定将显示在应用内通知中,也可以在新帐户注册期间进行设置。
具体有什么变化
从现在起,用户可以选择是否允许 你的聊天和代码会话 帮助提升 Claude 的性能和安全性。此选择是自愿的,您可以随时在隐私设置中撤消,无需经过任何复杂的流程。
新政策仅适用于 接受后活动没有新互动的旧帖子将不会用于训练。但是,如果您在接受后恢复聊天或编程会话,则从那时起您的贡献可以包含在改进数据集中。
这种变化并没有覆盖整个人类生态系统。它们被排除在外了。 克劳德为工作,克劳德为政府,克劳德为教育 并通过 Amazon Bedrock 或 Google Cloud 的 Vertex AI 等提供商进行 API 访问。也就是说,重点是与这些计划相关的 Claude.ai 和 Claude Code 的消费者使用情况。
现在接受的用户将立即在新对话中看到效果。无论如何, 从截止日期起,这将是强制性的 表示希望继续不间断地使用该服务。
数据处理和保留
如果你允许的话, 为改进目的而提供的信息可能会被保留 XNUMX年如果您不参加, 30天保留。 此外, 已删除的聊天记录将不会包含在未来的培训中,并且您提交的任何反馈都可能根据相同的规则保留。
Anthropic 声称将 自动化工具和流程 过滤或混淆敏感数据,并且不会将用户信息出售给第三方。作为回报,使用真实交互旨在加强 防止滥用的保障措施 并提高推理、分析、代码纠正等技能。
变更的原因和背景
语言模型需要 大量数据 以及较长的迭代周期。随着开放网络提供的新鲜内容越来越少,企业优先考虑来自 真实互动 改进回应并更好地发现问题行为.
如何设置您的偏好

登录时,许多人会看到通知“消费者条款和政策的更新”。在该框中,您将看到一个控件,允许您的对话帮助改进 Claude。如果您不想参与,请禁用该选项,然后点击“接受”。
如果您已经接受并想检查,请打开 Claude 并转到 设置 > 隐私 > 隐私设置您可以随时更改“帮助改进 Claude”选项。请记住,禁用它不会删除任何之前使用过的内容;它的作用是阻止 新的互动 进入未来的训练。
限制和说明
该公司强调,收集改进目的适用于 仅限新内容 接受条款后。恢复旧聊天会添加最近的内容,但如果没有后续活动,旧内容仍然会被排除。企业和政府账户使用 单独条件,因此这一变化不会影响他们。
对于那些优先考虑最大程度隐私的用户,设置允许你选择退出并保留 30 天的政策。另一方面,那些贡献数据的用户将会看到 安全机制 并根据实际使用情况的信号调整模型的功能。
通过这一举措,Anthropic 试图解决数据需求和用户控制之间的矛盾: 你可以选择你的谈话是否有助于训练,您知道它们存储了多长时间,并且可以随时改变主意,并且对于收集什么以及何时收集有更清晰的规则。
我是一名技术爱好者,已将自己的“极客”兴趣变成了职业。出于纯粹的好奇心,我花了 10 多年的时间使用尖端技术并修改各种程序。现在我专攻计算机技术和视频游戏。这是因为 5 年多来,我一直在为各种技术和视频游戏网站撰写文章,旨在以每个人都能理解的语言为您提供所需的信息。
如果您有任何疑问,我的知识范围涵盖与 Windows 操作系统以及手机 Android 相关的所有内容。我对您的承诺是,我总是愿意花几分钟帮助您解决在这个互联网世界中可能遇到的任何问题。

