Claude ändrar reglerna: så här bör du konfigurera ditt konto om du inte vill att dina chattar ska träna AI:n

Senaste uppdatering: 02/09/2025
Författare: Alberto Navarro

  • Anthropic introducerar en uttrycklig preferens för användare att välja om deras samtal med Claude ska användas för träning.
  • Ändringen påverkar Free-, Pro- och Max-abonnemangen; Work, Government, Education och API-användning (Bedrock, Vertex AI) är undantagna.
  • Datalagring sker i fem år om du deltar och i 30 dagar om du inte gör det; raderade chattar kommer inte att användas för utbildning.
  • Du måste ange dina inställningar senast den 28 september 2025. Du kan ändra dem när som helst i Integritetsmenyn.

Integritet i Claude

Att prata med en AI-assistent har blivit ganska normalt, men vi tänker sällan på det. Vad är grejen med de där samtalen?Nu introducerar Anthropic en relevant förändring i Claudes integritetEfter en tidsfrist måste varje användare bestämma om de vill tillåta att deras konversationer används för att träna framtida modeller.

Företaget kommer att kräva att de som använder Claude på Free-, Pro- och Max-planerna Välj din preferens före 28 september 2025Utan detta val blir det svårare att fortsätta använda tjänsten; beslutet visas i en avisering i appen och kan även göras vid registrering av ett nytt konto.

Qué cambia exactamente

Claudes integritetsuppdatering

Från och med nu kan användare ge eller neka sitt tillstånd till dina chattar och kodsessioner hjälpa till att förbättra Claudes prestanda och säkerhet. Valet är frivilligt och kan ändras när som helst från dina sekretessinställningar, utan att du behöver gå igenom några komplicerade processer.

Exklusivt innehåll - Klicka här  Är nattskiftet säkrare än det vanliga skiftet?

Den nya policyn gäller endast för aktivitet efter godkännandeGamla trådar utan nya interaktioner kommer inte att användas för utbildning. Om du däremot återupptar en chatt- eller programmeringssession efter att ha accepterat, kan dina bidrag från den tidpunkten och framåt inkluderas i förbättringsdatasetet.

Förändringen omfattar inte hela det antropiska ekosystemet. De är utelämnade. Claude för arbete, Claude Gov, Claude för utbildning och API-åtkomst via leverantörer som Amazon Bedrock eller Google Clouds Vertex AI. Det vill säga, fokus ligger på konsumenternas användning av Claude.ai och Claude Code i samband med dessa planer.

De som accepterar nu kommer att se effekterna omedelbart tillämpas på sina nya samtal. I vilket fall som helst, från deadline kommer det att vara obligatoriskt har angett att de föredrar att fortsätta använda tjänsten utan avbrott.

Databehandling och lagring

 

Om du ger ditt tillstånd, Information som tillhandahålls i förbättringssyfte kan komma att sparas fem årOm du inte deltar gäller policyn för 30 dagars lagringDessutom, Raderade chattar kommer inte att inkluderas i framtida utbildningar, och all feedback du skickar in kan komma att behållas enligt samma regler.

Exklusivt innehåll - Klicka här  Hur hittar man ett borttappat lösenord i 1Password?

Antropiska påståenden om att kombinera automatiserade verktyg och processer att filtrera eller förvränga känsliga uppgifter och säljer inte användarinformation till tredje part. I gengäld syftar användningen av verkliga interaktioner till att stärka skydd mot missbruk och förbättra färdigheter som resonemang, analys och kodkorrigering.

Orsaker och sammanhang för förändringen

Språkmodeller kräver stora datamängder och långa iterationscykler. Med den öppna webben som tillhandahåller allt mindre nytt innehåll prioriterar företag signaler från interacciones reales för att förfina svar och bättre upptäcka problematiska beteenden.

Så här ställer du in dina inställningar

Antropisk Claude Chrome

När de loggar in kommer många att se meddelandet "Uppdateringar av konsumentvillkor och policyerI den rutan ser du en kontroll som låter dina konversationer bidra till att förbättra Claude. Om du inte vill delta inaktiverar du alternativet och bekräftar genom att klicka på "Godkänn".

Om du redan har accepterat och vill kontrollera det, öppna Claude och gå till Inställningar > Sekretess > SekretessinställningarDär kan du ändra alternativet ”Hjälp till att förbättra Claude” när du vill. Tänk på att om du inaktiverar det raderas inget som tidigare använts; det blockerar nuevas interacciones gå in i framtida utbildning.

Exklusivt innehåll - Klicka här  Vilken skadlig kod upptäcker Malwarebytes Anti-Malware?

Begränsningar och förtydliganden

Företaget betonar att insamlingen för förbättringsändamål gäller bara till nytt innehåll efter att ha accepterat villkoren. Om man återupptar en gammal chatt läggs aktuellt material till, men äldre innehåll förblir exkluderat om det inte förekommit någon efterföljande aktivitet. Företags- och myndighetskonton använder separata villkor, så denna ändring påverkar inte dem.

För de som prioriterar maximal integritet kan man i inställningarna välja bort och behålla 30-dagarspolicyn. De som bidrar med data kommer däremot att se hur los mecanismos de seguridad och modellens funktioner justeras med signaler från verklig användning.

Med detta drag försöker Anthropic hitta likheten mellan databehov och användarkontroll: Du väljer om dina samtal hjälper till att träna, du vet hur länge de lagras och kan ändra dig när du vill, med tydligare regler om vad som samlas in och när.

hur man skyddar integriteten
Relaterad artikel:
Skydda din integritet på Google Gemini: Komplett guide