Claude verander die reëls: so moet jy jou rekening opstel as jy nie wil hê dat jou geselsies die KI moet oplei nie.

Laaste opdatering: 02/09/2025

  • Anthropic stel 'n eksplisiete voorkeur bekend vir gebruikers om te kies of hul gesprekke met Claude vir opleiding gebruik word.
  • Die verandering raak Gratis-, Pro- en Max-planne; Werk-, Regerings-, Onderwys- en API-gebruik (Bedrock, Vertex AI) word uitgesluit.
  • Databewaring is vir vyf jaar as jy deelneem en 30 dae as jy nie deelneem nie; uitgevee kletse sal nie vir opleiding gebruik word nie.
  • Jy moet jou voorkeur teen 28 September 2025 stel; jy kan dit enige tyd in Privaatheid verander.

Privaatheid in Claude

Om met 'n KI-assistent te praat het heeltemal normaal geword, maar ons dink selde daaraan. Wat gaan aan met daardie praatjies?Nou stel Antropiese bekend 'n relevante verandering in Claude se privaatheidNa 'n sperdatum sal elke gebruiker moet besluit of hulle hul gesprekke mag toelaat om toekomstige modelle op te lei.

Die maatskappy sal vereis dat diegene wat Claude op die Gratis-, Pro- en Max-planne gebruik Kies jou voorkeur voor 28 September 2025Sonder hierdie keuse word dit moeiliker om die diens voort te sit te gebruik; die besluit sal in 'n kennisgewing in die toepassing verskyn en kan ook tydens die registrasie van 'n nuwe rekening ingestel word.

Wat presies verander

Claude se privaatheidsopdatering

Van nou af kan gebruikers hul toestemming gee of nie jou geselsies en kodesessies help om Claude se werkverrigting en sekuriteit te verbeter. Die keuse is vrywillig en kan te eniger tyd omkeerbaar wees vanuit jou privaatheidsinstellings, sonder dat jy deur enige ingewikkelde prosesse hoef te gaan.

Eksklusiewe inhoud - Klik hier  Leer hoe om Copilot te gebruik: produseer meer, bespaar tyd

Die nuwe beleid is slegs van toepassing op die na-aanvaardingsaktiwiteitOu drade sonder nuwe interaksies sal nie vir opleiding gebruik word nie. As jy egter 'n klets- of programmeringsessie hervat nadat jy dit aanvaar het, kan jou bydraes van daardie punt af in die verbeteringsdatastel ingesluit word.

Die verandering dek nie die hele antropiese ekosisteem nie. Hulle word uitgelaat. Claude vir Werk, Claude Gov, Claude vir Onderwys en API-toegang deur verskaffers soos Amazon Bedrock of Google Cloud se Vertex AI. Dit wil sê, die fokus is op die verbruikersgebruik van Claude.ai en Claude Code wat met daardie planne geassosieer word.

Diegene wat nou aanvaar, sal die effekte onmiddellik op hul nuwe gesprekke sien toegepas word. In elk geval, vanaf die sperdatum sal dit verpligtend wees het 'n voorkeur aangedui om die diens sonder onderbreking voort te sit.

Dataverwerking en -bewaring

 

As jy jou toestemming gee, Inligting wat vir verbeteringsdoeleindes verskaf word, kan behou word vir vyf jareIndien u nie deelneem nie, is die beleid van 30-dae behoud. Daarbenewens Geskrapte geselsies sal nie in toekomstige opleidingsessies ingesluit word nie., en enige terugvoer wat u indien, kan onder dieselfde reëls behou word.

Eksklusiewe inhoud - Klik hier  Wat is 'n antivirus? Hoe werk dit?

Antropiese eise om te kombineer outomatiese gereedskap en prosesse om sensitiewe data te filter of te verdoesel, en verkoop nie gebruikersinligting aan derde partye nie. In ruil daarvoor poog die gebruik van werklike interaksies om die waarborge teen misbruik en vaardighede soos redenasie, analise en kodekorreksie verbeter.

Redes en konteks vir die verandering

Taalmodelle vereis groot volumes data en lang iterasiesiklusse. Met die oop web wat al hoe minder vars inhoud verskaf, prioritiseer maatskappye seine van werklike interaksies om reaksies te verfyn en problematiese gedrag beter op te spoor.

Hoe om jou voorkeur te stel

Antropiese Claude Chrome

Wanneer hulle aanmeld, sal baie die kennisgewing sien "Opdaterings aan verbruikersvoorwaardes en -beleide". In daardie blokkie sal jy 'n kontrole sien om jou gesprekke toe te laat om Claude te help verbeter. As jy nie wil deelneem nie, deaktiveer die opsie en bevestig deur op "Aanvaar" te klik.

As jy reeds aanvaar het en dit wil nagaan, maak Claude oop en gaan na Instellings > Privaatheid > PrivaatheidsinstellingsDaar kan jy die opsie "Help Claude verbeter" verander wanneer jy wil. Hou in gedagte dat die deaktivering daarvan niks uitvee wat voorheen gebruik is nie; wat dit doen is om te blokkeer nuwe interaksies toekomstige opleiding betree.

Eksklusiewe inhoud - Klik hier  Hoe om SimSimi slegte woorde te laat sê

Beperkings en verduidelikings

Die maatskappy beklemtoon dat die invordering vir verbeteringsdoeleindes van toepassing is slegs vir nuwe inhoud nadat die bepalings aanvaar is. Deur 'n ou klets te hervat, word onlangse materiaal bygevoeg, maar ouer inhoud bly uitgesluit indien daar geen daaropvolgende aktiwiteit was nie. Besigheids- en regeringsrekeninge gebruik afsonderlike voorwaardes, dus hierdie verandering raak hulle nie.

Vir diegene wat maksimum privaatheid prioritiseer, laat die instellings jou toe om uit te teken en die 30-dae-beleid te handhaaf. Diegene wat data bydra, aan die ander kant, sal sien hoe sekuriteitsmeganismes en die model se vermoëns word aangepas met seine van werklike gebruik.

Met hierdie stap poog Anthropic om die sirkel tussen databehoeftes en gebruikersbeheer vierkantig te maak: Jy kies of jou gesprekke help om op te lei, jy weet hoe lank hulle gestoor word en kan van plan verander wanneer jy wil, met duideliker reëls oor wat versamel word en wanneer.

hoe om privaatheid te beskerm
Verwante artikel:
Beskerm jou privaatheid op Google Gemini: Volledige gids