- Anthropic uvodi eksplicitnu preferenciju za korisnike da odaberu hoće li se njihovi razgovori s Claudeom koristiti za obuku.
- Promjena utječe na planove Free, Pro i Max; isključeni su planovi Work, Government, Education i korištenje API-ja (Bedrock, Vertex AI).
- Podaci se čuvaju pet godina ako sudjelujete i 30 dana ako ne sudjelujete; izbrisani razgovori neće se koristiti za obuku.
- Svoje postavke morate postaviti do 28. rujna 2025.; možete ih promijeniti u bilo kojem trenutku u odjeljku Privatnost.

Razgovor s AI asistentom postao je sasvim normalan, ali rijetko o tome razmišljamo. Što je s tim razgovorima?Sada Anthropic predstavlja relevantna promjena u Claudeovoj privatnostiNakon isteka roka, svaki će korisnik morati odlučiti hoće li dopustiti korištenje svojih razgovora za treniranje budućih modela.
Tvrtka će zahtijevati od onih koji koriste Claude na planovima Free, Pro i Max Odaberite svoje preferencije prije 28. rujna 2025.Bez ovog izbora, nastavak korištenja usluge postaje teži; odluka će se pojaviti u obavijesti unutar aplikacije, a može se postaviti i tijekom registracije novog računa.
Što se točno mijenja
Od sada korisnici mogu dati ili ne dati svoju dozvolu za vaši razgovori i sesije kodiranja pomozite poboljšati Claudeove performanse i sigurnost. Izbor je dobrovoljan i može se poništiti u bilo kojem trenutku u postavkama privatnosti, bez potrebe za prolaskom kroz ikakve komplicirane postupke.
Nova politika se odnosi samo na aktivnost nakon prihvaćanjaStare teme bez novih interakcija neće se koristiti za obuku. Međutim, ako nastavite chat ili sesiju programiranja nakon prihvaćanja, vaši doprinosi od tog trenutka nadalje mogu se uključiti u skup podataka za poboljšanje.
Promjena ne pokriva cijeli antropni ekosustav. Oni su izostavljeni. Claude za posao, Claude Gov, Claude za obrazovanje i API pristup putem pružatelja usluga poput Amazon Bedrocka ili Google Cloudovog Vertex AI-ja. To jest, fokus je na korištenju Claude.ai i Claude Codea od strane potrošača povezanih s tim planovima.
Oni koji sada prihvate, odmah će vidjeti učinke primijenjene na njihove nove razgovore. U svakom slučaju, od roka će biti obavezno naznačili su želju za nastavkom korištenja usluge bez prekida.
Obrada i zadržavanje podataka
Ako date dopuštenje, Informacije pružene u svrhu poboljšanja mogu se zadržati za pet godinaAko ne sudjelujete, politika 30-dnevno zadržavanje, Osim toga, Izbrisani razgovori neće biti uključeni u buduće obuke, a sve povratne informacije koje pošaljete mogu se zadržati prema istim pravilima.
Antropske tvrdnje da kombiniraju automatizirani alati i procesi filtrirati ili prikrivati osjetljive podatke i ne prodaje korisničke podatke trećim stranama. Zauzvrat, korištenje stvarnih interakcija nastoji ojačati zaštitne mjere protiv zlouporabe i poboljšati vještine poput zaključivanja, analize i ispravljanja koda.
Razlozi i kontekst promjene
Jezični modeli zahtijevaju velike količine podataka i duge iteracijske cikluse. S otvorenim webom koji pruža sve manje i manje svježeg sadržaja, tvrtke daju prioritet signalima iz stvarne interakcije kako bi se poboljšali odgovori i bolje otkrilo problematično ponašanje.
Kako postaviti svoje preferencije

Prilikom prijave, mnogi će vidjeti obavijest „Ažuriranja uvjeta i pravila za potrošače„U tom okviru vidjet ćete kontrolu koja omogućuje vašim razgovorima da pomognu u poboljšanju Claudea. Ako ne želite sudjelovati, onemogućite opciju i potvrdite klikom na „Prihvati“.
Ako ste već prihvatili i želite to provjeriti, otvorite Claude i idite na Postavke > Privatnost > Postavke privatnostiTamo možete promijeniti opciju „Pomozite poboljšati Claudea“ kad god želite. Imajte na umu da onemogućavanje ne briše ništa što je prethodno korišteno; ono što radi jest blokiranje nove interakcije ući u buduću obuku.
Ograničenja i pojašnjenja
Tvrtka naglašava da se prikupljanje u svrhu poboljšanja primjenjuje samo za novi sadržaj nakon prihvaćanja uvjeta. Nastavak starog chata dodaje nedavni materijal, ali stariji sadržaj ostaje isključen ako nije bilo naknadne aktivnosti. Poslovni i vladini računi koriste odvojeni uvjeti, tako da ova promjena na njih ne utječe.
Za one kojima je prioritet maksimalna privatnost, postavke omogućuju isključivanje i zadržavanje 30-dnevne politike. S druge strane, oni koji daju podatke vidjet će kako sigurnosnih mehanizama a mogućnosti modela prilagođavaju se signalima iz stvarne upotrebe.
Ovim potezom, Anthropic nastoji pronaći rješenje između potreba za podacima i korisničke kontrole: Vi birate hoće li vaši razgovori pomoći u obuci, znate koliko dugo se pohranjuju i možete promijeniti mišljenje kad god želite, s jasnijim pravilima o tome što se prikuplja i kada.
Ja sam tehnološki entuzijast koji je svoje "geek" interese pretvorio u profesiju. Proveo sam više od 10 godina svog života koristeći vrhunsku tehnologiju i petljajući sa svim vrstama programa iz čiste znatiželje. Sada sam se specijalizirao za računalne tehnologije i video igre. To je zato što sam više od 5 godina pisao za razne web stranice o tehnologiji i videoigrama, stvarajući članke koji vam nastoje dati informacije koje su vam potrebne na jeziku koji je svima razumljiv.
Ako imate bilo kakvih pitanja, moje znanje seže od svega vezanog uz Windows operativni sustav kao i Android za mobitele. I moja je posvećenost vama, uvijek sam spreman odvojiti nekoliko minuta i pomoći vam riješiti sva pitanja koja imate u ovom internetskom svijetu.

