Claude ändert die Regeln: So sollten Sie Ihr Konto konfigurieren, wenn Sie nicht möchten, dass Ihre Chats die KI trainieren

Letzte Aktualisierung: 02/09/2025

  • Anthropic führt eine explizite Präferenz ein, mit der Benutzer auswählen können, ob ihre Gespräche mit Claude für Schulungszwecke verwendet werden.
  • Die Änderung betrifft die Tarife Free, Pro und Max; ausgenommen sind die Tarife Work, Government, Education und API-Nutzung (Bedrock, Vertex AI).
  • Die Datenspeicherung beträgt bei Teilnahme fünf Jahre, bei Nichtteilnahme 30 Tage; gelöschte Chats werden nicht für Schulungen verwendet.
  • Sie müssen Ihre Präferenz bis zum 28. September 2025 festlegen; Sie können sie jederzeit unter „Datenschutz“ ändern.

Privatsphäre in Claude

Mit einem KI-Assistenten zu sprechen ist ganz normal geworden, aber wir denken selten darüber nach. Was ist mit diesen Gesprächen los?. Jetzt stellt Anthropic vor eine relevante Änderung in Claudes Privatsphäre: Nach Ablauf einer Frist muss jeder Benutzer entscheiden, ob er die Verwendung seiner Gespräche zum Trainieren zukünftiger Modelle zulässt.

Das Unternehmen verlangt von denjenigen, die Claude mit den Tarifen Free, Pro und Max nutzen, Wählen Sie Ihre Präferenz vor dem 28. September 2025Ohne diese Auswahl wird die weitere Nutzung des Dienstes schwieriger; die Entscheidung wird in einer In-App-Benachrichtigung angezeigt und kann auch bei der Registrierung eines neuen Kontos festgelegt werden.

Was genau ändert sich

Claudes Datenschutz-Update

Von nun an können Benutzer ihre Zustimmung erteilen oder verweigern für Ihre Chats und Code-Sitzungen Helfen Sie mit, die Leistung und Sicherheit von Claude zu verbessern. Die Auswahl ist freiwillig und kann jederzeit in Ihren Datenschutzeinstellungen rückgängig gemacht werden, ohne dass komplizierte Prozesse durchlaufen werden müssen.

Exklusiver Inhalt – Klicken Sie hier  Alibaba entfesselt seine generative KI für Bilder und Videos

Die neue Richtlinie gilt nur für die Aktivität nach der AnnahmeAlte Threads ohne neue Interaktionen werden nicht für das Training verwendet. Wenn Sie jedoch nach der Annahme einen Chat oder eine Programmiersitzung fortsetzen, können Ihre Beiträge ab diesem Zeitpunkt in den Verbesserungsdatensatz aufgenommen werden.

Die Änderung betrifft nicht das gesamte anthropogene Ökosystem. Sie werden außen vor gelassen. Claude für Arbeit, Claude Gov, Claude für Bildung und API-Zugriff über Anbieter wie Amazon Bedrock oder Vertex AI von Google Cloud. Das heißt, der Schwerpunkt liegt auf der Verbrauchernutzung von Claude.ai und Claude Code im Zusammenhang mit diesen Plänen.

Wer jetzt akzeptiert, wird die Auswirkungen sofort in seinen neuen Gesprächen sehen. In jedem Fall Ab dem Stichtag ist es obligatorisch haben angegeben, dass sie den Dienst ohne Unterbrechung weiter nutzen möchten.

Datenverarbeitung und -aufbewahrung

 

Wenn Sie Ihre Zustimmung geben, Informationen, die zu Verbesserungszwecken bereitgestellt werden, können für fünf JahreWenn Sie nicht teilnehmen, gelten die Richtlinien von 30-tägige Aufbewahrung. Ferner Gelöschte Chats werden in zukünftigen Schulungen nicht berücksichtigt, und jegliches Feedback, das Sie übermitteln, kann gemäß denselben Regeln aufbewahrt werden.

Exklusiver Inhalt – Klicken Sie hier  Wie deinstalliere ich Bitdefender für Mac?

Anthropische Ansprüche zu kombinieren automatisierte Tools und Prozesse sensible Daten zu filtern oder zu verschleiern und verkauft keine Benutzerinformationen an Dritte. Im Gegenzug soll die Verwendung realer Interaktionen die Schutzmaßnahmen gegen Missbrauch und verbessern Sie Fähigkeiten wie Argumentation, Analyse und Codekorrektur.

Gründe und Kontext der Änderung

Sprachmodelle erfordern große Datenmengen und lange Iterationszyklen. Da das offene Web immer weniger frische Inhalte bietet, priorisieren Unternehmen Signale von echte Interaktionen um Antworten zu verfeinern und problematisches Verhalten besser zu erkennen.

So legen Sie Ihre Präferenz fest

Anthropischer Claude Chrome

Beim Einloggen sehen viele den Hinweis „Aktualisierungen der Verbraucherbedingungen und -richtlinienIn diesem Feld sehen Sie ein Steuerelement, mit dem Sie Ihre Gespräche zulassen können, um Claude zu verbessern. Wenn Sie nicht teilnehmen möchten, deaktivieren Sie die Option und bestätigen Sie mit einem Klick auf „Akzeptieren“.

Wenn Sie bereits akzeptiert haben und es überprüfen möchten, öffnen Sie Claude und gehen Sie zu Einstellungen > Datenschutz > Datenschutzeinstellungen. Dort können Sie die Option „Helfen Sie, Claude zu verbessern“ jederzeit ändern. Beachten Sie, dass das Deaktivieren nichts löscht, was zuvor verwendet wurde; es blockiert neue Interaktionen in die zukünftige Ausbildung einsteigen.

Exklusiver Inhalt – Klicken Sie hier  So nutzen Sie Cloudflare WARP und DNS 1.1.1.1, um Ihre Internetverbindung zu beschleunigen

Grenzen und Klarstellungen

Das Unternehmen betont, dass die Erhebung zu Verbesserungszwecken gilt nur auf neue Inhalte nach der Annahme der Bedingungen. Beim Fortsetzen eines alten Chats werden aktuelle Inhalte hinzugefügt, ältere Inhalte bleiben jedoch ausgeschlossen, wenn keine nachfolgende Aktivität erfolgte. Geschäfts- und Regierungskonten verwenden gesonderte Bedingungen, daher betrifft diese Änderung sie nicht.

Für diejenigen, die maximale Privatsphäre priorisieren, können Sie in den Einstellungen die 30-Tage-Richtlinie deaktivieren und beibehalten. Diejenigen, die Daten beitragen, werden hingegen sehen, wie Sicherheitsmechanismen und die Fähigkeiten des Modells werden anhand von Signalen aus der realen Nutzung angepasst.

Mit diesem Schritt versucht Anthropic, die Quadratur des Kreises zwischen Datenbedarf und Benutzerkontrolle zu schaffen: Sie entscheiden, ob Ihre Gespräche beim Training helfen, Sie wissen, wie lange sie gespeichert werden, und können Ihre Meinung jederzeit ändern, da es klarere Regeln darüber gibt, was wann gesammelt wird.

So schützen Sie Ihre Privatsphäre
Verwandte Artikel:
Schützen Sie Ihre Privatsphäre auf Google Gemini: Vollständige Anleitung