Claude ændrer reglerne: Sådan skal du konfigurere din konto, hvis du ikke vil have, at dine chats træner AI'en

Sidste ændring: 02/09/2025

  • Anthropic introducerer en eksplicit præference for brugerne til at vælge, om deres samtaler med Claude bruges til træning.
  • Ændringen påvirker Free-, Pro- og Max-abonnementerne; Work, Government, Education og API-brug (Bedrock, Vertex AI) er undtaget.
  • Dataopbevaring er i fem år, hvis du deltager, og 30 dage, hvis du ikke deltager. Slettede chats vil ikke blive brugt til træning.
  • Du skal angive dine præferencer senest den 28. september 2025. Du kan til enhver tid ændre dem under Privatliv.

Privatliv i Claude

Det er blevet helt normalt at tale med en AI-assistent, men vi tænker sjældent over det. Hvad er der galt med de samtaler?Nu introducerer Antropisk en relevant ændring i Claudes privatlivEfter en deadline skal hver bruger beslutte, om de vil tillade, at deres samtaler bruges til at træne fremtidige modeller.

Virksomheden vil kræve, at de, der bruger Claude på Free-, Pro- og Max-abonnementerne, Vælg din præference inden 28. september 2025Uden dette valg bliver det vanskeligere at fortsætte med at bruge tjenesten; beslutningen vil blive vist i en notifikation i appen og kan også foretages under registrering af en ny konto.

Hvad der præcist ændrer sig

Claudes privatlivsopdatering

Fra nu af kan brugerne give eller afvise deres tilladelse til dine chats og kodesessioner hjælpe med at forbedre Claudes ydeevne og sikkerhed. Valget er frivilligt og kan til enhver tid ændres fra dine privatlivsindstillinger, uden at du behøver at gennemgå nogen komplicerede processer.

Eksklusivt indhold - Klik her  Alibaba frigiver sin generative AI til billeder og videoer

Den nye politik gælder kun for aktivitet efter acceptGamle tråde uden nye interaktioner vil ikke blive brugt til træning. Hvis du genoptager en chat- eller programmeringssession efter at have accepteret, kan dine bidrag fra det tidspunkt og fremefter inkluderes i forbedringsdatasættet.

Ændringen dækker ikke hele det antropiske økosystem. De er udeladt. Claude for arbejde, Claude Gov, Claude for uddannelse og API-adgang via udbydere som Amazon Bedrock eller Google Clouds Vertex AI. Det vil sige, at fokus er på forbrugernes brug af Claude.ai og Claude Code, der er forbundet med disse planer.

De, der accepterer nu, vil se effekten straks blive anvendt på deres nye samtaler. Under alle omstændigheder, fra fristen vil det være obligatorisk har angivet, at de ønsker at fortsætte med at bruge tjenesten uden afbrydelse.

Databehandling og -opbevaring

 

Hvis du giver din tilladelse, Oplysninger, der gives til forbedringsformål, kan opbevares fem årHvis du ikke deltager, gælder politikken for 30-dages opbevaring. Derudover Slettede chats vil ikke blive inkluderet i fremtidige træninger, og al feedback, du indsender, kan blive opbevaret under disse samme regler.

Eksklusivt indhold - Klik her  Hvordan afinstallerer jeg Bitdefender til Mac?

Antropiske påstande om at kombinere automatiserede værktøjer og processer at filtrere eller tilsløre følsomme data og sælger ikke brugeroplysninger til tredjeparter. Til gengæld søger brugen af ​​reelle interaktioner at styrke beskyttelse mod misbrug og forbedre færdigheder som ræsonnement, analyse og kodekorrektion.

Årsager og kontekst for ændringen

Sprogmodeller kræver store datamængder og lange iterationscyklusser. Med det åbne web, der leverer mindre og mindre nyt indhold, prioriterer virksomheder signaler fra reelle interaktioner at forfine svar og bedre opdage problematisk adfærd.

Sådan indstiller du din præference

Antropisk Claude Chrome

Når de logger ind, vil mange se meddelelsen "Opdateringer af forbrugervilkår og -politikkerI den boks vil du se en kontrol, der tillader, at dine samtaler hjælper med at forbedre Claude. Hvis du ikke vil deltage, skal du deaktivere indstillingen og bekræfte ved at klikke på "Accepter".

Hvis du allerede har accepteret og vil tjekke det, skal du åbne Claude og gå til Indstillinger > Privatliv > PrivatlivsindstillingerDer kan du ændre indstillingen "Hjælp med at forbedre Claude", når du vil. Husk, at deaktivering af den ikke sletter noget, der tidligere blev brugt; det, den gør, er at blokere nye interaktioner indgå i fremtidig træning.

Eksklusivt indhold - Klik her  Sådan bruger du Cloudflare WARP og DNS 1.1.1.1 til at fremskynde dit internet

Begrænsninger og præciseringer

Virksomheden understreger, at indsamlingen til forbedringsformål gælder kun til nyt indhold efter at have accepteret vilkårene. Genoptagelse af en gammel chat tilføjer nyt materiale, men ældre indhold forbliver ekskluderet, hvis der ikke har været nogen efterfølgende aktivitet. Virksomheds- og offentlige konti bruger separate betingelser, så denne ændring påvirker ikke dem.

For dem, der prioriterer maksimal privatliv, giver indstillingerne dig mulighed for at fravælge og opretholde 30-dages politikken. De, der bidrager med data, vil derimod se, hvordan sikkerhedsmekanismer og modellens egenskaber justeres med signaler fra den faktiske brug.

Med dette træk søger Anthropic at skabe en ligevægt mellem databehov og brugerkontrol: Du vælger, om dine samtaler hjælper med at træne, du ved, hvor længe de opbevares, og kan ændre mening, når du vil, med klarere regler for, hvad der indsamles, og hvornår.

hvordan man beskytter privatlivets fred
relateret artikel:
Beskyt dit privatliv på Google Gemini: Komplet guide