- Anthropic führt eine explizite Präferenz ein, mit der Benutzer auswählen können, ob ihre Gespräche mit Claude für Schulungszwecke verwendet werden.
- Die Änderung betrifft die Tarife Free, Pro und Max; ausgenommen sind die Tarife Work, Government, Education und API-Nutzung (Bedrock, Vertex AI).
- Die Datenspeicherung beträgt bei Teilnahme fünf Jahre, bei Nichtteilnahme 30 Tage; gelöschte Chats werden nicht für Schulungen verwendet.
- Sie müssen Ihre Präferenz bis zum 28. September 2025 festlegen; Sie können sie jederzeit unter „Datenschutz“ ändern.

Mit einem KI-Assistenten zu sprechen ist ganz normal geworden, aber wir denken selten darüber nach. Was ist mit diesen Gesprächen los?. Jetzt stellt Anthropic vor eine relevante Änderung in Claudes Privatsphäre: Nach Ablauf einer Frist muss jeder Benutzer entscheiden, ob er die Verwendung seiner Gespräche zum Trainieren zukünftiger Modelle zulässt.
Das Unternehmen verlangt von denjenigen, die Claude mit den Tarifen Free, Pro und Max nutzen, Wählen Sie Ihre Präferenz vor dem 28. September 2025Ohne diese Auswahl wird die weitere Nutzung des Dienstes schwieriger; die Entscheidung wird in einer In-App-Benachrichtigung angezeigt und kann auch bei der Registrierung eines neuen Kontos festgelegt werden.
Was genau ändert sich
Von nun an können Benutzer ihre Zustimmung erteilen oder verweigern für Ihre Chats und Code-Sitzungen Helfen Sie mit, die Leistung und Sicherheit von Claude zu verbessern. Die Auswahl ist freiwillig und kann jederzeit in Ihren Datenschutzeinstellungen rückgängig gemacht werden, ohne dass komplizierte Prozesse durchlaufen werden müssen.
Die neue Richtlinie gilt nur für die Aktivität nach der AnnahmeAlte Threads ohne neue Interaktionen werden nicht für das Training verwendet. Wenn Sie jedoch nach der Annahme einen Chat oder eine Programmiersitzung fortsetzen, können Ihre Beiträge ab diesem Zeitpunkt in den Verbesserungsdatensatz aufgenommen werden.
Die Änderung betrifft nicht das gesamte anthropogene Ökosystem. Sie werden außen vor gelassen. Claude für Arbeit, Claude Gov, Claude für Bildung und API-Zugriff über Anbieter wie Amazon Bedrock oder Vertex AI von Google Cloud. Das heißt, der Schwerpunkt liegt auf der Verbrauchernutzung von Claude.ai und Claude Code im Zusammenhang mit diesen Plänen.
Wer jetzt akzeptiert, wird die Auswirkungen sofort in seinen neuen Gesprächen sehen. In jedem Fall Ab dem Stichtag ist es obligatorisch haben angegeben, dass sie den Dienst ohne Unterbrechung weiter nutzen möchten.
Datenverarbeitung und -aufbewahrung
Wenn Sie Ihre Zustimmung geben, Informationen, die zu Verbesserungszwecken bereitgestellt werden, können für fünf JahreWenn Sie nicht teilnehmen, gelten die Richtlinien von 30-tägige Aufbewahrung. Ferner Gelöschte Chats werden in zukünftigen Schulungen nicht berücksichtigt, und jegliches Feedback, das Sie übermitteln, kann gemäß denselben Regeln aufbewahrt werden.
Anthropische Ansprüche zu kombinieren automatisierte Tools und Prozesse sensible Daten zu filtern oder zu verschleiern und verkauft keine Benutzerinformationen an Dritte. Im Gegenzug soll die Verwendung realer Interaktionen die Schutzmaßnahmen gegen Missbrauch und verbessern Sie Fähigkeiten wie Argumentation, Analyse und Codekorrektur.
Gründe und Kontext der Änderung
Sprachmodelle erfordern große Datenmengen und lange Iterationszyklen. Da das offene Web immer weniger frische Inhalte bietet, priorisieren Unternehmen Signale von echte Interaktionen um Antworten zu verfeinern und problematisches Verhalten besser zu erkennen.
So legen Sie Ihre Präferenz fest

Beim Einloggen sehen viele den Hinweis „Aktualisierungen der Verbraucherbedingungen und -richtlinienIn diesem Feld sehen Sie ein Steuerelement, mit dem Sie Ihre Gespräche zulassen können, um Claude zu verbessern. Wenn Sie nicht teilnehmen möchten, deaktivieren Sie die Option und bestätigen Sie mit einem Klick auf „Akzeptieren“.
Wenn Sie bereits akzeptiert haben und es überprüfen möchten, öffnen Sie Claude und gehen Sie zu Einstellungen > Datenschutz > Datenschutzeinstellungen. Dort können Sie die Option „Helfen Sie, Claude zu verbessern“ jederzeit ändern. Beachten Sie, dass das Deaktivieren nichts löscht, was zuvor verwendet wurde; es blockiert neue Interaktionen in die zukünftige Ausbildung einsteigen.
Grenzen und Klarstellungen
Das Unternehmen betont, dass die Erhebung zu Verbesserungszwecken gilt nur auf neue Inhalte nach der Annahme der Bedingungen. Beim Fortsetzen eines alten Chats werden aktuelle Inhalte hinzugefügt, ältere Inhalte bleiben jedoch ausgeschlossen, wenn keine nachfolgende Aktivität erfolgte. Geschäfts- und Regierungskonten verwenden gesonderte Bedingungen, daher betrifft diese Änderung sie nicht.
Für diejenigen, die maximale Privatsphäre priorisieren, können Sie in den Einstellungen die 30-Tage-Richtlinie deaktivieren und beibehalten. Diejenigen, die Daten beitragen, werden hingegen sehen, wie Sicherheitsmechanismen und die Fähigkeiten des Modells werden anhand von Signalen aus der realen Nutzung angepasst.
Mit diesem Schritt versucht Anthropic, die Quadratur des Kreises zwischen Datenbedarf und Benutzerkontrolle zu schaffen: Sie entscheiden, ob Ihre Gespräche beim Training helfen, Sie wissen, wie lange sie gespeichert werden, und können Ihre Meinung jederzeit ändern, da es klarere Regeln darüber gibt, was wann gesammelt wird.
Ich bin ein Technik-Enthusiast, der seine „Geek“-Interessen zum Beruf gemacht hat. Ich habe mehr als 10 Jahre meines Lebens damit verbracht, modernste Technologie zu nutzen und aus purer Neugier an allen möglichen Programmen herumzubasteln. Mittlerweile habe ich mich auf Computertechnik und Videospiele spezialisiert. Das liegt daran, dass ich seit mehr als fünf Jahren für verschiedene Websites zum Thema Technologie und Videospiele schreibe und Artikel erstelle, die Ihnen die Informationen, die Sie benötigen, in einer für jeden verständlichen Sprache vermitteln möchten.
Bei Fragen reicht mein Wissen von allem rund um das Windows-Betriebssystem bis hin zu Android für Mobiltelefone. Und mein Engagement gilt Ihnen, ich bin immer bereit, ein paar Minuten zu investieren und Ihnen bei der Lösung aller Fragen in dieser Internetwelt zu helfen.

