Claude zmienia zasady: tak powinieneś skonfigurować swoje konto, jeśli nie chcesz, aby Twoje czaty uczyły sztuczną inteligencję

Ostatnia aktualizacja: 02/09/2025

  • Anthropic wprowadza wyraźną preferencję umożliwiającą użytkownikom wybór, czy ich rozmowy z Claudem będą wykorzystywane do szkolenia.
  • Zmiana dotyczy planów Free, Pro i Max. Nie dotyczy planów Work, Government, Education i korzystania z interfejsu API (Bedrock, Vertex AI).
  • Dane będą przechowywane przez pięć lat w przypadku uczestnictwa w szkoleniu i 30 dni w przypadku nieuczestniczenia w szkoleniu; usunięte rozmowy nie będą wykorzystywane do celów szkoleniowych.
  • Swoje preferencje musisz ustawić do 28 września 2025 r. Możesz je w każdej chwili zmienić w zakładce Prywatność.

Prywatność w Claude

Rozmowy z asystentem AI stały się czymś zupełnie normalnym, ale rzadko o tym myślimy. O co chodzi z tymi rozmowami?. Teraz Anthropic wprowadza istotna zmiana w prywatności Claude'a:Po upływie określonego terminu każdy użytkownik będzie musiał podjąć decyzję, czy zezwolić na wykorzystanie jego konwersacji do trenowania przyszłych modeli.

Firma będzie wymagać od użytkowników Claude'a w ramach planów Free, Pro i Max Wybierz swoją preferencję przed 28 września 2025 r.Bez tej możliwości wyboru dalsze korzystanie z usługi staje się trudniejsze. Decyzja pojawi się w powiadomieniu w aplikacji, można ją również określić podczas rejestracji nowego konta.

Co dokładnie się zmienia

Aktualizacja prywatności Claude'a

Od teraz użytkownicy mogą wyrazić lub nie zgodę na Twoje czaty i sesje kodowania Pomóż nam poprawić wydajność i bezpieczeństwo Claude. Wybór jest dobrowolny i można go w każdej chwili cofnąć w Ustawieniach prywatności, bez konieczności przechodzenia przez skomplikowane procedury.

Ekskluzywna zawartość — kliknij tutaj  Alibaba wprowadza swoją generatywną sztuczną inteligencję do obrazów i filmów

Nowa polityka dotyczy wyłącznie aktywność poakceptacyjnaStare wątki bez nowych interakcji nie będą wykorzystywane do szkolenia. Jeśli jednak wznowisz czat lub sesję programowania po zaakceptowaniu, Twój wkład od tego momentu może zostać uwzględniony w zbiorze danych dotyczących ulepszeń.

Zmiana nie obejmuje całego ekosystemu antropicznego. Zostają pominięci. Claude za pracą, Claude Gov, Claude za edukacją oraz dostęp do API za pośrednictwem dostawców takich jak Amazon Bedrock czy Vertex AI firmy Google Cloud. Oznacza to, że nacisk kładziony jest na konsumenckie wykorzystanie Claude.ai i Claude Code w ramach tych planów.

Ci, którzy zaakceptują teraz, zobaczą natychmiastowe efekty w swoich nowych rozmowach. W każdym razie, od tego terminu będzie to obowiązkowe wskazali chęć dalszego korzystania z usługi bez zakłóceń.

Przetwarzanie i przechowywanie danych

 

Jeśli wyrazisz zgodę, Informacje podane w celu udoskonalenia mogą być przechowywane pięć latJeżeli nie weźmiesz udziału, polityka 30-dniowy okres przechowywania, Ponadto Usunięte czaty nie będą uwzględniane w przyszłych szkoleniach, a wszelkie przesłane przez Ciebie opinie mogą zostać zachowane na tych samych zasadach.

Ekskluzywna zawartość — kliknij tutaj  Jak odinstalować Bitdefender dla Maca?

Antropiczne roszczenia do łączenia zautomatyzowane narzędzia i procesy do filtrowania lub zaciemniania poufnych danych i nie sprzedaje informacji o użytkownikach stronom trzecim. W zamian, wykorzystanie rzeczywistych interakcji ma na celu wzmocnienie zabezpieczenia przed nadużyciami i doskonalić umiejętności takie jak rozumowanie, analiza i korygowanie kodu.

Powody i kontekst zmiany

Modele językowe wymagają duże ilości danych i długie cykle iteracji. Ponieważ otwarta sieć oferuje coraz mniej świeżych treści, firmy priorytetowo traktują sygnały z prawdziwe interakcje aby udoskonalić odpowiedzi i lepiej wykrywać problematyczne zachowania.

Jak ustawić swoje preferencje

Antropiczny Claude Chrome

Podczas logowania wiele osób zobaczy komunikat „Aktualizacje warunków i zasad dla konsumentówW tym polu zobaczysz opcję, która pozwoli Ci pomóc w ulepszaniu Claude'a za pomocą Twoich rozmów. Jeśli nie chcesz brać udziału, wyłącz tę opcję i potwierdź, klikając „Akceptuję”.

Jeżeli już zaakceptowałeś i chcesz to sprawdzić, otwórz Claude i przejdź do Ustawienia > Prywatność > Ustawienia prywatności. Możesz tam zmienić opcję „Pomóż ulepszyć Claude'a” w dowolnym momencie. Pamiętaj, że jej wyłączenie nie usuwa niczego, co było wcześniej używane; blokuje jedynie nowe interakcje wejść na przyszłe szkolenia.

Ekskluzywna zawartość — kliknij tutaj  Jak korzystać z Cloudflare WARP i DNS 1.1.1.1, aby przyspieszyć działanie Internetu

Ograniczenia i wyjaśnienia

Spółka podkreśla, że ​​zbiórka na cele udoskonalające ma zastosowanie tylko do nowej zawartości Po zaakceptowaniu warunków. Wznowienie starego czatu dodaje nowsze materiały, ale starsze treści pozostają niedostępne, jeśli nie było żadnej późniejszej aktywności. Konta firmowe i rządowe korzystają z oddzielne warunki, więc ta zmiana ich nie dotyczy.

Dla osób, którym zależy na maksymalnej prywatności, ustawienia pozwalają na rezygnację i utrzymanie polityki 30-dniowej. Z kolei osoby udostępniające dane zobaczą, jak mechanizmy bezpieczeństwa a możliwości modelu są dostosowywane na podstawie sygnałów pochodzących z rzeczywistego użytkowania.

Dzięki temu posunięciu Anthropic stara się pogodzić potrzeby związane z danymi z kontrolą użytkownika: Wybierasz, czy Twoje rozmowy pomagają w szkoleniu, wiesz, jak długo dane są przechowywane i możesz zmienić zdanie, kiedy tylko chcesz, dzięki jaśniejszym zasadom dotyczącym tego, co i kiedy jest gromadzone.

jak chronić prywatność
Podobne artykuł:
Chroń swoją prywatność w Google Gemini: Kompletny przewodnik