- Anthropic wprowadza wyraźną preferencję umożliwiającą użytkownikom wybór, czy ich rozmowy z Claudem będą wykorzystywane do szkolenia.
- Zmiana dotyczy planów Free, Pro i Max. Nie dotyczy planów Work, Government, Education i korzystania z interfejsu API (Bedrock, Vertex AI).
- Dane będą przechowywane przez pięć lat w przypadku uczestnictwa w szkoleniu i 30 dni w przypadku nieuczestniczenia w szkoleniu; usunięte rozmowy nie będą wykorzystywane do celów szkoleniowych.
- Swoje preferencje musisz ustawić do 28 września 2025 r. Możesz je w każdej chwili zmienić w zakładce Prywatność.

Rozmowy z asystentem AI stały się czymś zupełnie normalnym, ale rzadko o tym myślimy. O co chodzi z tymi rozmowami?. Teraz Anthropic wprowadza istotna zmiana w prywatności Claude'a:Po upływie określonego terminu każdy użytkownik będzie musiał podjąć decyzję, czy zezwolić na wykorzystanie jego konwersacji do trenowania przyszłych modeli.
Firma będzie wymagać od użytkowników Claude'a w ramach planów Free, Pro i Max Wybierz swoją preferencję przed 28 września 2025 r.Bez tej możliwości wyboru dalsze korzystanie z usługi staje się trudniejsze. Decyzja pojawi się w powiadomieniu w aplikacji, można ją również określić podczas rejestracji nowego konta.
Co dokładnie się zmienia
Od teraz użytkownicy mogą wyrazić lub nie zgodę na Twoje czaty i sesje kodowania Pomóż nam poprawić wydajność i bezpieczeństwo Claude. Wybór jest dobrowolny i można go w każdej chwili cofnąć w Ustawieniach prywatności, bez konieczności przechodzenia przez skomplikowane procedury.
Nowa polityka dotyczy wyłącznie aktywność poakceptacyjnaStare wątki bez nowych interakcji nie będą wykorzystywane do szkolenia. Jeśli jednak wznowisz czat lub sesję programowania po zaakceptowaniu, Twój wkład od tego momentu może zostać uwzględniony w zbiorze danych dotyczących ulepszeń.
Zmiana nie obejmuje całego ekosystemu antropicznego. Zostają pominięci. Claude za pracą, Claude Gov, Claude za edukacją oraz dostęp do API za pośrednictwem dostawców takich jak Amazon Bedrock czy Vertex AI firmy Google Cloud. Oznacza to, że nacisk kładziony jest na konsumenckie wykorzystanie Claude.ai i Claude Code w ramach tych planów.
Ci, którzy zaakceptują teraz, zobaczą natychmiastowe efekty w swoich nowych rozmowach. W każdym razie, od tego terminu będzie to obowiązkowe wskazali chęć dalszego korzystania z usługi bez zakłóceń.
Przetwarzanie i przechowywanie danych
Jeśli wyrazisz zgodę, Informacje podane w celu udoskonalenia mogą być przechowywane pięć latJeżeli nie weźmiesz udziału, polityka 30-dniowy okres przechowywania, Ponadto Usunięte czaty nie będą uwzględniane w przyszłych szkoleniach, a wszelkie przesłane przez Ciebie opinie mogą zostać zachowane na tych samych zasadach.
Antropiczne roszczenia do łączenia zautomatyzowane narzędzia i procesy do filtrowania lub zaciemniania poufnych danych i nie sprzedaje informacji o użytkownikach stronom trzecim. W zamian, wykorzystanie rzeczywistych interakcji ma na celu wzmocnienie zabezpieczenia przed nadużyciami i doskonalić umiejętności takie jak rozumowanie, analiza i korygowanie kodu.
Powody i kontekst zmiany
Modele językowe wymagają duże ilości danych i długie cykle iteracji. Ponieważ otwarta sieć oferuje coraz mniej świeżych treści, firmy priorytetowo traktują sygnały z prawdziwe interakcje aby udoskonalić odpowiedzi i lepiej wykrywać problematyczne zachowania.
Jak ustawić swoje preferencje

Podczas logowania wiele osób zobaczy komunikat „Aktualizacje warunków i zasad dla konsumentówW tym polu zobaczysz opcję, która pozwoli Ci pomóc w ulepszaniu Claude'a za pomocą Twoich rozmów. Jeśli nie chcesz brać udziału, wyłącz tę opcję i potwierdź, klikając „Akceptuję”.
Jeżeli już zaakceptowałeś i chcesz to sprawdzić, otwórz Claude i przejdź do Ustawienia > Prywatność > Ustawienia prywatności. Możesz tam zmienić opcję „Pomóż ulepszyć Claude'a” w dowolnym momencie. Pamiętaj, że jej wyłączenie nie usuwa niczego, co było wcześniej używane; blokuje jedynie nowe interakcje wejść na przyszłe szkolenia.
Ograniczenia i wyjaśnienia
Spółka podkreśla, że zbiórka na cele udoskonalające ma zastosowanie tylko do nowej zawartości Po zaakceptowaniu warunków. Wznowienie starego czatu dodaje nowsze materiały, ale starsze treści pozostają niedostępne, jeśli nie było żadnej późniejszej aktywności. Konta firmowe i rządowe korzystają z oddzielne warunki, więc ta zmiana ich nie dotyczy.
Dla osób, którym zależy na maksymalnej prywatności, ustawienia pozwalają na rezygnację i utrzymanie polityki 30-dniowej. Z kolei osoby udostępniające dane zobaczą, jak mechanizmy bezpieczeństwa a możliwości modelu są dostosowywane na podstawie sygnałów pochodzących z rzeczywistego użytkowania.
Dzięki temu posunięciu Anthropic stara się pogodzić potrzeby związane z danymi z kontrolą użytkownika: Wybierasz, czy Twoje rozmowy pomagają w szkoleniu, wiesz, jak długo dane są przechowywane i możesz zmienić zdanie, kiedy tylko chcesz, dzięki jaśniejszym zasadom dotyczącym tego, co i kiedy jest gromadzone.
Jestem entuzjastą technologii, który swoje „geekowskie” zainteresowania przekształcił w zawód. Spędziłem ponad 10 lat mojego życia, korzystając z najnowocześniejszych technologii i majsterkując przy wszelkiego rodzaju programach z czystej ciekawości. Teraz specjalizuję się w technologii komputerowej i grach wideo. Dzieje się tak dlatego, że od ponad 5 lat piszę dla różnych serwisów poświęconych technologii i grom wideo, tworząc artykuły, których celem jest dostarczenie potrzebnych informacji w języku zrozumiałym dla każdego.
Jeśli masz jakieś pytania, moja wiedza obejmuje wszystko, co jest związane z systemem operacyjnym Windows, a także Androidem dla telefonów komórkowych. Moje zaangażowanie jest wobec Ciebie. Zawsze jestem gotowy poświęcić kilka minut i pomóc Ci rozwiązać wszelkie pytania, jakie możesz mieć w tym internetowym świecie.

