- Anthropic introducerer en eksplicit præference for brugerne til at vælge, om deres samtaler med Claude bruges til træning.
- Ændringen påvirker Free-, Pro- og Max-abonnementerne; Work, Government, Education og API-brug (Bedrock, Vertex AI) er undtaget.
- Dataopbevaring er i fem år, hvis du deltager, og 30 dage, hvis du ikke deltager. Slettede chats vil ikke blive brugt til træning.
- Du skal angive dine præferencer senest den 28. september 2025. Du kan til enhver tid ændre dem under Privatliv.

Det er blevet helt normalt at tale med en AI-assistent, men vi tænker sjældent over det. Hvad er der galt med de samtaler?Nu introducerer Antropisk en relevant ændring i Claudes privatlivEfter en deadline skal hver bruger beslutte, om de vil tillade, at deres samtaler bruges til at træne fremtidige modeller.
Virksomheden vil kræve, at de, der bruger Claude på Free-, Pro- og Max-abonnementerne, Vælg din præference inden 28. september 2025Uden dette valg bliver det vanskeligere at fortsætte med at bruge tjenesten; beslutningen vil blive vist i en notifikation i appen og kan også foretages under registrering af en ny konto.
Hvad der præcist ændrer sig
Fra nu af kan brugerne give eller afvise deres tilladelse til dine chats og kodesessioner hjælpe med at forbedre Claudes ydeevne og sikkerhed. Valget er frivilligt og kan til enhver tid ændres fra dine privatlivsindstillinger, uden at du behøver at gennemgå nogen komplicerede processer.
Den nye politik gælder kun for aktivitet efter acceptGamle tråde uden nye interaktioner vil ikke blive brugt til træning. Hvis du genoptager en chat- eller programmeringssession efter at have accepteret, kan dine bidrag fra det tidspunkt og fremefter inkluderes i forbedringsdatasættet.
Ændringen dækker ikke hele det antropiske økosystem. De er udeladt. Claude for arbejde, Claude Gov, Claude for uddannelse og API-adgang via udbydere som Amazon Bedrock eller Google Clouds Vertex AI. Det vil sige, at fokus er på forbrugernes brug af Claude.ai og Claude Code, der er forbundet med disse planer.
De, der accepterer nu, vil se effekten straks blive anvendt på deres nye samtaler. Under alle omstændigheder, fra fristen vil det være obligatorisk har angivet, at de ønsker at fortsætte med at bruge tjenesten uden afbrydelse.
Databehandling og -opbevaring
Hvis du giver din tilladelse, Oplysninger, der gives til forbedringsformål, kan opbevares fem årHvis du ikke deltager, gælder politikken for 30-dages opbevaring. Derudover Slettede chats vil ikke blive inkluderet i fremtidige træninger, og al feedback, du indsender, kan blive opbevaret under disse samme regler.
Antropiske påstande om at kombinere automatiserede værktøjer og processer at filtrere eller tilsløre følsomme data og sælger ikke brugeroplysninger til tredjeparter. Til gengæld søger brugen af reelle interaktioner at styrke beskyttelse mod misbrug og forbedre færdigheder som ræsonnement, analyse og kodekorrektion.
Årsager og kontekst for ændringen
Sprogmodeller kræver store datamængder og lange iterationscyklusser. Med det åbne web, der leverer mindre og mindre nyt indhold, prioriterer virksomheder signaler fra reelle interaktioner at forfine svar og bedre opdage problematisk adfærd.
Sådan indstiller du din præference

Når de logger ind, vil mange se meddelelsen "Opdateringer af forbrugervilkår og -politikkerI den boks vil du se en kontrol, der tillader, at dine samtaler hjælper med at forbedre Claude. Hvis du ikke vil deltage, skal du deaktivere indstillingen og bekræfte ved at klikke på "Accepter".
Hvis du allerede har accepteret og vil tjekke det, skal du åbne Claude og gå til Indstillinger > Privatliv > PrivatlivsindstillingerDer kan du ændre indstillingen "Hjælp med at forbedre Claude", når du vil. Husk, at deaktivering af den ikke sletter noget, der tidligere blev brugt; det, den gør, er at blokere nye interaktioner indgå i fremtidig træning.
Begrænsninger og præciseringer
Virksomheden understreger, at indsamlingen til forbedringsformål gælder kun til nyt indhold efter at have accepteret vilkårene. Genoptagelse af en gammel chat tilføjer nyt materiale, men ældre indhold forbliver ekskluderet, hvis der ikke har været nogen efterfølgende aktivitet. Virksomheds- og offentlige konti bruger separate betingelser, så denne ændring påvirker ikke dem.
For dem, der prioriterer maksimal privatliv, giver indstillingerne dig mulighed for at fravælge og opretholde 30-dages politikken. De, der bidrager med data, vil derimod se, hvordan sikkerhedsmekanismer og modellens egenskaber justeres med signaler fra den faktiske brug.
Med dette træk søger Anthropic at skabe en ligevægt mellem databehov og brugerkontrol: Du vælger, om dine samtaler hjælper med at træne, du ved, hvor længe de opbevares, og kan ændre mening, når du vil, med klarere regler for, hvad der indsamles, og hvornår.
Jeg er en teknologientusiast, der har vendt sine "nørde" interesser til et erhverv. Jeg har brugt mere end 10 år af mit liv på at bruge avanceret teknologi og pille ved alle slags programmer af ren nysgerrighed. Nu har jeg specialiseret mig i computerteknologi og videospil. Dette skyldes, at jeg i mere end 5 år har skrevet til forskellige hjemmesider om teknologi og videospil, og lavet artikler, der søger at give dig den information, du har brug for, på et sprog, der er forståeligt for alle.
Har du spørgsmål, så spænder min viden fra alt relateret til Windows styresystemet samt Android til mobiltelefoner. Og mit engagement er over for dig, jeg er altid villig til at bruge et par minutter og hjælpe dig med at løse eventuelle spørgsmål, du måtte have i denne internetverden.

