- Anthropic yntrodusearret in eksplisite foarkar foar brûkers om te kiezen oft har petearen mei Claude brûkt wurde foar training.
- De feroaring hat ynfloed op de Fergese, Pro en Max-plannen; Wurk, Oerheid, Underwiis en API-gebrûk (Bedrock, Vertex AI) binne útsletten.
- Gegevensbewarring is fiif jier as jo meidogge en 30 dagen as jo net meidogge; wiske petearen wurde net brûkt foar training.
- Jo moatte jo foarkar ynstelle foar 28 septimber 2025; jo kinne it op elk momint feroarje yn Privacy.

Praten mei in AI-assistint is hiel normaal wurden, mar wy tinke der selden oer nei. Wat is der oan de hân mei dy petearen?No yntrodusearret Antropysk in relevante feroaring yn 'e privacy fan ClaudeNei in deadline moat elke brûker beslute oft se tastean dat harren petearen brûkt wurde om takomstige modellen te trainen.
It bedriuw sil fereaskje dat dyjingen dy't Claude brûke op 'e Fergese, Pro- en Max-plannen Kies jo foarkar foar 28 septimber 2025Sûnder dizze kar wurdt it dreger om de tsjinst fierder te brûken; de beslissing sil ferskine yn in notifikaasje yn 'e app en kin ek ynsteld wurde by it registrearjen fan in nij akkount.
Wat feroaret der krekt
Fan no ôf kinne brûkers har tastimming jaan of net jaan foar dyn petearen en kodesesjes helpe de prestaasjes en feiligens fan Claude te ferbetterjen. De kar is frijwillich en kin op elk momint omkeard wurde fanút jo privacyynstellingen, sûnder dat jo yngewikkelde prosessen hoege te gean.
It nije belied jildt allinnich foar de aktiviteit nei akseptaasjeAlde threads sûnder nije ynteraksjes wurde net brûkt foar training. As jo lykwols in petear- of programmearsesje wer oppakke nei't jo se akseptearre hawwe, kinne jo bydragen fan dat punt ôf opnommen wurde yn 'e ferbetteringsdataset.
De feroaring jildt net foar it hiele antropyske ekosysteem. Se wurde derút litten. Claude foar Wurk, Claude Gov, Claude foar Underwiis en API-tagong fia providers lykas Amazon Bedrock of Google Cloud's Vertex AI. Dat wol sizze, de fokus leit op it gebrûk fan Claude.ai en Claude Code troch konsuminten dy't ferbûn binne mei dy plannen.
Dyjingen dy't no akseptearje sille de effekten direkt sjen dy't tapast wurde op har nije petearen. Yn alle gefallen, fan 'e deadline ôf sil it ferplicht wêze hawwe oanjûn dat se de tsjinst sûnder ûnderbrekking brûke wolle.
Gegevensferwurking en behâld
As jo jo tastimming jouwe, Ynformaasje dy't foar ferbetteringsdoelen levere wurdt, kin bewarre wurde foar fiif jierAs jo net meidogge, is it belied fan 30-dagen behâld. Ek, Wiske petearen wurde net opnommen yn takomstige trainingen, en alle feedback dy't jo yntsjinje kin ûnder deselde regels bewarre wurde.
Antropyske oanspraken om te kombinearjen automatisearre ark en prosessen om gefoelige gegevens te filterjen of te fertsjusterjen, en ferkeapet gjin brûkersynformaasje oan tredden. Yn ruil dêrfoar besiket it gebrûk fan echte ynteraksjes de beskermingsmaatregels tsjin misbrûk en ferbetterje feardigens lykas redenearjen, analyze en koadekorreksje.
Redenen en kontekst foar de feroaring
Taalmodellen fereaskje grutte hoemannichten gegevens en lange iteraasjesyklusen. Mei it iepen web dat hieltyd minder nije ynhâld leveret, prioritearje bedriuwen sinjalen fan echte ynteraksjes om antwurden te ferfine en problematysk gedrach better te detektearjen.
Hoe kinne jo jo foarkar ynstelle

By it ynloggen sille in protte minsken de melding "Updates oan konsumintebetingsten en -beliedYn dat fakje sjogge jo in kontrôle om jo petearen te tastean om Claude te ferbetterjen. As jo net meidwaan wolle, skeakelje de opsje út en befêstigje troch te klikken op "Akseptearje".
As jo al akseptearre hawwe en it kontrolearje wolle, iepenje Claude en gean nei Ynstellings > Privacy > PrivacyynstellingsDêr kinne jo de opsje "Help Claude te ferbetterjen" feroarje wannear jo wolle. Tink derom dat it útskeakeljen neat wisket dat earder brûkt waard; wat it docht is blokkearje. nije ynteraksjes yngean op takomstige training.
Limiten en ferdúdlikingen
It bedriuw beklammet dat de kolleksje foar ferbetteringsdoelen jildt allinnich nei nije ynhâld nei it akseptearjen fan 'e betingsten. It weropstarten fan in âlde petearen foeget resint materiaal ta, mar âldere ynhâld bliuwt útsletten as der gjin folgjende aktiviteit wie. Bedriuws- en oerheidsakkounts brûke aparte betingsten, dus dizze feroaring hat gjin ynfloed op harren.
Foar dyjingen dy't prioriteit jouwe oan maksimale privacy, kinne jo mei de ynstellings ôfmelde en it 30-dagenbelied behâlde. Dyjingen dy't gegevens bydrage, sille oan 'e oare kant sjen hoe feiligens meganismen en de mooglikheden fan it model wurde oanpast mei sinjalen út gebrûk yn it echte libben.
Mei dizze stap besiket Anthropic de sirkel tusken gegevensbehoeften en brûkerskontrôle te kwadraatearjen: Jo kieze oft jo petearen helpe by it trainen, jo witte hoe lang se opslein wurde en kinne fan gedachten feroarje wannear't jo wolle, mei dúdliker regels oer wat sammele wurdt en wannear.
Ik bin in technology-entûsjast dy't syn "geek" ynteresses hat omset yn in berop. Ik haw mear as 10 jier fan myn libben bestege oan it brûken fan moderne technology en oan allerhande programma's út pure nijsgjirrigens te tinken. No haw ik my spesjalisearre yn kompjûtertechnology en fideospultsjes. Dit is om't ik mear dan 5 jier wurke oan skriuwen foar ferskate websiden oer technology en fideospultsjes, artikels oanmeitsje dy't besykje jo de ynformaasje te jaan dy't jo nedich binne yn in taal dy't elkenien begrypt.
As jo fragen hawwe, rint myn kennis fan alles relatearre oan it Windows-bestjoeringssysteem as Android foar mobile tillefoans. En myn ynset is foar jo, ik bin altyd ree om in pear minuten te besteegjen en jo te helpen mei it oplossen fan alle fragen dy't jo hawwe yn dizze ynternetwrâld.

