- Anthropic では、ユーザーが Claude との会話をトレーニングに使用するかどうかを選択できる明示的な設定が導入されています。
- この変更は、Free、Pro、Max プランに影響します。Work、Government、Education、API 使用 (Bedrock、Vertex AI) は除外されます。
- データは、参加した場合は 30 年間、参加しなかった場合は XNUMX 日間保持されます。削除されたチャットはトレーニングには使用されません。
- 28 年 2025 月 XNUMX 日までに設定を変更する必要があります。プライバシー設定でいつでも変更できます。

AIアシスタントと話すことはごく普通のことになりましたが、私たちはそれについてほとんど考えません。 その話し合いはどうなったんですか?. Anthropicが紹介する クロードのプライバシーに関する重要な変化: 期限が過ぎると、各ユーザーは自分の会話を将来のモデルのトレーニングに使用することを許可するかどうかを決定する必要があります。
同社は、クロードを無料、プロ、マックスプランで利用する人に 28年2025月XNUMX日までにご希望を選択してくださいこの選択がなければ、サービスを継続して使用することが難しくなります。この決定はアプリ内通知に表示され、新規アカウント登録時に設定することもできます。
具体的に何が変わるのか
今後、ユーザーは許可を与えるか与えないかを選択できる。 チャットとコードセッション Claudeのパフォーマンスとセキュリティの向上に役立ちます。この選択は任意であり、プライバシー設定からいつでも元に戻すことができます。複雑な手続きは必要ありません。
新しいポリシーは、 受け入れ後の活動新しいやり取りのない古いスレッドはトレーニングには使用されません。ただし、承認後にチャットやプログラミングセッションを再開した場合、それ以降の貢献は改善データセットに含まれる可能性があります。
この変化は人類のエコシステム全体を網羅するものではありません。彼らは取り残されています。 クロード・フォー・ワーク、クロード・ガバメント、クロード・フォー・エデュケーション Amazon BedrockやGoogle CloudのVertex AIなどのプロバイダーを介したAPIアクセスも含まれています。つまり、これらのプランに関連するClaude.aiとClaude Codeの消費者による利用に重点が置かれています。
今すぐ承認すると、新しい会話にすぐに効果が適用されます。いずれにせよ、 締め切りから必須となります サービスを中断することなく継続して利用したいという希望を示しました。
データの処理と保持
許可を頂ければ、 改善目的で提供された情報は、 5年参加しない場合は、 30日間の保持。 また 削除されたチャットは今後のトレーニングには含まれませんあなたが送信したフィードバックも、同様の規則に従って保存される場合があります。
人類学は結合を主張している 自動化されたツールとプロセス 機密データをフィルタリングまたは難読化することはなく、ユーザー情報を第三者に販売することもありません。その代わりに、実際のやり取りを利用することで、 乱用に対する安全策 推論、分析、コード修正などのスキルを向上させます。
変更の理由と背景
言語モデルには 大量のデータ オープンウェブから提供される新鮮なコンテンツが減るにつれ、企業は次のようなシグナルを優先するようになっている。 実際の相互作用 対応を改善し、問題のある行動をより適切に検出する.
設定方法

ログインすると、多くの人が「消費者規約とポリシーの更新」。このボックスには、Claude の改善に役立つ会話を許可するためのコントロールが表示されます。参加したくない場合は、オプションを無効にして「承認」をクリックしてください。
すでに承認していて確認したい場合は、Claudeを開いて 設定 > プライバシー > プライバシー設定いつでも「Claudeの改善に協力する」オプションを変更できます。無効にしても、以前使用したものは削除されず、ブロックされるだけなので注意してください。 新しい相互作用 将来のトレーニングに参加します。
制限と明確化
同社は、改善目的の収集は適用されることを強調している。 新しいコンテンツのみ 利用規約に同意した後、再開できます。以前のチャットを再開すると、最近の内容が追加されますが、その後のアクティビティがない場合は古い内容は除外されます。企業および政府機関のアカウントは 別々の条件したがって、この変更はそれらには影響しません。
プライバシーを最優先する方は、設定でオプトアウトして30日間のポリシーを維持できます。一方、データを提供する方は、 セキュリティメカニズム そして、モデルの機能は実際の使用状況からのシグナルに基づいて調整されます。
この動きにより、Anthropic はデータのニーズとユーザー制御の間の矛盾を解消することを目指しています。 会話がトレーニングに役立つかどうかを選択しますでは、何がいつ収集されるかについての明確なルールがあるため、データがどれくらいの期間保存されるかがわかり、いつでも考えを変えることができます。
私はテクノロジー愛好家であり、その「オタク」の興味を職業に変えています。私は 10 年以上、純粋な好奇心から最先端のテクノロジーを使用し、あらゆる種類のプログラムをいじくり回してきました。現在はコンピューター技術とビデオゲームを専門にしています。これは、私が 5 年以上、テクノロジーやビデオ ゲームに関するさまざまな Web サイトに執筆し、誰にでも理解できる言語で必要な情報を提供することを目的とした記事を作成しているためです。
ご質問がございましたら、私の知識は Windows オペレーティング システムから携帯電話用の Android に関連するあらゆるものまで多岐にわたります。そして、私はあなたに対して、いつでも喜んで数分を費やして、このインターネットの世界であなたが抱いている疑問を解決するお手伝いをしたいと考えています。

