克劳德改变了规则:如果你不想让你的聊天内容训练人工智能,那么你应该这样配置你的帐户

最后更新: 02/09/2025

  • Anthropic 为用户引入了明确的偏好,让他们选择是否将他们与 Claude 的对话用于训练。
  • 此更改影响免费、专业和最大计划;工作、政府、教育和 API 使用(Bedrock、Vertex AI)除外。
  • 如果您参加,数据保留五年;如果您不参加,数据保留三十天;已删除的聊天记录不会用于培训。
  • 您必须在 28 年 2025 月 XNUMX 日之前设置您的偏好;您可以随时在隐私中更改它。

克劳德的隐私

与人工智能助手交谈已经变得非常正常,但我们很少考虑这一点。 那些会谈进展如何?. 现在 Anthropic 推出 克劳德的隐私发生了相关变化:截止日期过后,每个用户都必须决定是否允许使用他们的对话来训练未来的模型。

该公司将要求那些在 Free、Pro 和 Max 计划中使用 Claude 的用户 28 年 2025 月 XNUMX 日之前选择您的偏好如果没有这个选择,继续使用该服务会变得更加困难;该决定将显示在应用内通知中,也可以在新帐户注册期间进行设置。

具体有什么变化

克劳德的隐私更新

从现在起,用户可以选择是否允许 你的聊天和代码会话 帮助提升 Claude 的性能和安全性。此选择是自愿的,您可以随时在隐私设置中撤消,无需经过任何复杂的流程。

独家内容 - 点击这里  三种最完整的防病毒软件

新政策仅适用于 接受后活动没有新互动的旧帖子将不会用于训练。但是,如果您在接受后恢复聊天或编程会话,则从那时起您的贡献可以包含在改进数据集中。

这种变化并没有覆盖整个人类生态系统。它们被排除在外了。 克劳德为工作,克劳德为政府,克劳德为教育 并通过 Amazon Bedrock 或 Google Cloud 的 Vertex AI 等提供商进行 API 访问。也就是说,重点是与这些计划相关的 Claude.ai 和 Claude Code 的消费者使用情况。

现在接受的用户将立即在新对话中看到效果。无论如何, 从截止日期起,这将是强制性的 表示希望继续不间断地使用该服务。

数据处理和保留

 

如果你允许的话, 为改进目的而提供的信息可能会被保留 XNUMX年如果您不参加, 30天保留。 此外, 已删除的聊天记录将不会包含在未来的培训中,并且您提交的任何反馈都可能根据相同的规则保留。

独家内容 - 点击这里  Android 系统安全核心:它是什么以及为什么它会出现在你的手机上?

Anthropic 声称将 自动化工具和流程 过滤或混淆敏感数据,并且不会将用户信息出售给第三方。作为回报,使用真实交互旨在加强 防止滥用的保障措施 并提高推理、分析、代码纠正等技能。

变更的原因和背景

语言模型需要 大量数据 以及较长的迭代周期。随着开放网络提供的新鲜内容越来越少,企业优先考虑来自 真实互动 改进回应并更好地发现问题行为.

如何设置您的偏好

人类学克劳德·克罗姆

登录时,许多人会看到通知“消费者条款和政策的更新”。在该框中,您将看到一个控件,允许您的对话帮助改进 Claude。如果您不想参与,请禁用该选项,然后点击“接受”。

如果您已经接受并想检查,请打开 Claude 并转到 设置 > 隐私 > 隐私设置您可以随时更改“帮助改进 Claude”选项。请记住,禁用它不会删除任何之前使用过的内容;它的作用是阻止 新的互动 进入未来的训练。

独家内容 - 点击这里  如何使用 Eset NOD32 Antivirus 配置电子邮件保护?

限制和说明

该公司强调,收集改进目的适用于 仅限新内容 接受条款后。恢复旧聊天会添加最近的内容,但如果没有后续活动,旧内容仍然会被排除。企业和政府账户使用 单独条件,因此这一变化不会影响他们。

对于那些优先考虑最大程度隐私的用户,设置允许你选择退出并保留 30 天的政策。另一方面,那些贡献数据的用户将会看到 安全机制 并根据实际使用情况的信号调整模型的功能。

通过这一举措,Anthropic 试图解决数据需求和用户控制之间的矛盾: 你可以选择你的谈话是否有助于训练,您知道它们存储了多长时间,并且可以随时改变主意,并且对于收集什么以及何时收集有更清晰的规则。

如何保护隐私
相关文章:
保护 Google Gemini 上的隐私:完整指南