- Anthropic introducerar en uttrycklig preferens för användare att välja om deras samtal med Claude ska användas för träning.
- Ändringen påverkar Free-, Pro- och Max-abonnemangen; Work, Government, Education och API-användning (Bedrock, Vertex AI) är undantagna.
- Datalagring sker i fem år om du deltar och i 30 dagar om du inte gör det; raderade chattar kommer inte att användas för utbildning.
- Du måste ange dina inställningar senast den 28 september 2025. Du kan ändra dem när som helst i Integritetsmenyn.

Att prata med en AI-assistent har blivit ganska normalt, men vi tänker sällan på det. Vad är grejen med de där samtalen?Nu introducerar Anthropic en relevant förändring i Claudes integritetEfter en tidsfrist måste varje användare bestämma om de vill tillåta att deras konversationer används för att träna framtida modeller.
Företaget kommer att kräva att de som använder Claude på Free-, Pro- och Max-planerna Välj din preferens före 28 september 2025Utan detta val blir det svårare att fortsätta använda tjänsten; beslutet visas i en avisering i appen och kan även göras vid registrering av ett nytt konto.
Qué cambia exactamente
Från och med nu kan användare ge eller neka sitt tillstånd till dina chattar och kodsessioner hjälpa till att förbättra Claudes prestanda och säkerhet. Valet är frivilligt och kan ändras när som helst från dina sekretessinställningar, utan att du behöver gå igenom några komplicerade processer.
Den nya policyn gäller endast för aktivitet efter godkännandeGamla trådar utan nya interaktioner kommer inte att användas för utbildning. Om du däremot återupptar en chatt- eller programmeringssession efter att ha accepterat, kan dina bidrag från den tidpunkten och framåt inkluderas i förbättringsdatasetet.
Förändringen omfattar inte hela det antropiska ekosystemet. De är utelämnade. Claude för arbete, Claude Gov, Claude för utbildning och API-åtkomst via leverantörer som Amazon Bedrock eller Google Clouds Vertex AI. Det vill säga, fokus ligger på konsumenternas användning av Claude.ai och Claude Code i samband med dessa planer.
De som accepterar nu kommer att se effekterna omedelbart tillämpas på sina nya samtal. I vilket fall som helst, från deadline kommer det att vara obligatoriskt har angett att de föredrar att fortsätta använda tjänsten utan avbrott.
Databehandling och lagring
Om du ger ditt tillstånd, Information som tillhandahålls i förbättringssyfte kan komma att sparas fem årOm du inte deltar gäller policyn för 30 dagars lagringDessutom, Raderade chattar kommer inte att inkluderas i framtida utbildningar, och all feedback du skickar in kan komma att behållas enligt samma regler.
Antropiska påståenden om att kombinera automatiserade verktyg och processer att filtrera eller förvränga känsliga uppgifter och säljer inte användarinformation till tredje part. I gengäld syftar användningen av verkliga interaktioner till att stärka skydd mot missbruk och förbättra färdigheter som resonemang, analys och kodkorrigering.
Orsaker och sammanhang för förändringen
Språkmodeller kräver stora datamängder och långa iterationscykler. Med den öppna webben som tillhandahåller allt mindre nytt innehåll prioriterar företag signaler från interacciones reales för att förfina svar och bättre upptäcka problematiska beteenden.
Så här ställer du in dina inställningar

När de loggar in kommer många att se meddelandet "Uppdateringar av konsumentvillkor och policyerI den rutan ser du en kontroll som låter dina konversationer bidra till att förbättra Claude. Om du inte vill delta inaktiverar du alternativet och bekräftar genom att klicka på "Godkänn".
Om du redan har accepterat och vill kontrollera det, öppna Claude och gå till Inställningar > Sekretess > SekretessinställningarDär kan du ändra alternativet ”Hjälp till att förbättra Claude” när du vill. Tänk på att om du inaktiverar det raderas inget som tidigare använts; det blockerar nuevas interacciones gå in i framtida utbildning.
Begränsningar och förtydliganden
Företaget betonar att insamlingen för förbättringsändamål gäller bara till nytt innehåll efter att ha accepterat villkoren. Om man återupptar en gammal chatt läggs aktuellt material till, men äldre innehåll förblir exkluderat om det inte förekommit någon efterföljande aktivitet. Företags- och myndighetskonton använder separata villkor, så denna ändring påverkar inte dem.
För de som prioriterar maximal integritet kan man i inställningarna välja bort och behålla 30-dagarspolicyn. De som bidrar med data kommer däremot att se hur los mecanismos de seguridad och modellens funktioner justeras med signaler från verklig användning.
Med detta drag försöker Anthropic hitta likheten mellan databehov och användarkontroll: Du väljer om dina samtal hjälper till att träna, du vet hur länge de lagras och kan ändra dig när du vill, med tydligare regler om vad som samlas in och när.
Jag är en teknikentusiast som har gjort sina "nördar"-intressen till ett yrke. Jag har tillbringat mer än 10 år av mitt liv med att använda den senaste tekniken och mixtrat med alla typer av program av ren nyfikenhet. Nu har jag specialiserat mig på datateknik och tv-spel. Detta beror på att jag i mer än 5 år har arbetat med att skriva för olika webbplatser om teknik och videospel, skapa artiklar som försöker ge dig den information du behöver på ett språk som är begripligt för alla.
Om du har några frågor sträcker sig min kunskap från allt som rör operativsystemet Windows samt Android för mobiltelefoner. Och mitt engagemang är för dig, jag är alltid villig att spendera några minuter och hjälpa dig att lösa alla frågor du kan ha i den här internetvärlden.

