- Anthropic воведува експлицитна преференција за корисниците да изберат дали нивните разговори со Клод ќе се користат за обука.
- Промената влијае на бесплатните, Pro и Max плановите; Работа, Влада, Образование и користење на API (Bedrock, Vertex AI) се исклучени.
- Задржувањето на податоците е пет години ако учествувате и 30 дена ако не учествувате; избришаните разговори нема да се користат за обука.
- Мора да ги поставите вашите преференции до 28 септември 2025 година; можете да ги промените во секое време во „Приватност“.

Разговорот со асистент за вештачка интелигенција стана сосема нормално, но ретко размислуваме за тоа. Што е работата со тие муабети?Сега Anthropic го претставува релевантна промена во приватноста на КлодПо истекот на рокот, секој корисник ќе мора да одлучи дали да дозволи неговите разговори да се користат за обука на идните модели.
Компанијата ќе бара од оние кои го користат Claude на Free, Pro и Max плановите Изберете го вашиот избор пред 28 септември 2025 годинаБез овој избор, продолжувањето на користењето на услугата станува потешко; одлуката ќе се појави во известување во апликацијата, а може да се постави и при регистрација на нова сметка.
Што точно се менува
Отсега, корисниците можат да дадат или не дозвола за вашите разговори и сесии за кодирање помогнете да се подобрат перформансите и безбедноста на Клод. Изборот е доброволен и реверзибилен во секое време од вашите поставки за приватност, без да мора да поминувате низ какви било комплицирани процеси.
Новата политика се однесува само на активност по прифаќањетоСтарите нишки без нови интеракции нема да се користат за обука. Меѓутоа, ако продолжите со разговор или сесија за програмирање откако ќе прифатите, вашите придонеси од таа точка па натаму можат да бидат вклучени во збирката податоци за подобрување.
Промената не го опфаќа целиот антропски екосистем. Тие се изоставени. Клод за работа, Клод Гов, Клод за образование и пристап до API преку провајдери како Amazon Bedrock или Vertex AI на Google Cloud. Тоа значи дека фокусот е на користењето на Claude.ai и Claude Code поврзани со тие планови од страна на потрошувачите.
Оние кои ќе прифатат сега ќе ги видат ефектите применети веднаш на нивните нови разговори. Во секој случај, од крајниот рок тоа ќе биде задолжително покажаа претпочитање да продолжат да ја користат услугата без прекин.
Обработка и задржување на податоци
Ако дадете дозвола, Информациите дадени за цели на подобрување може да се задржат за пет годиниДоколку не учествувате, важи политиката на 30-дневно задржување. Исто така, Избришаните разговори нема да бидат вклучени во идните обуки, и сите повратни информации што ќе ги доставите може да бидат задржани според истите правила.
Антропикот тврди дека комбинира автоматизирани алатки и процеси да филтрира или прикрива чувствителни податоци и не продава кориснички информации на трети страни. За возврат, употребата на вистински интеракции има за цел да го зајакне заштитни мерки против злоупотреба и да ги подобрат вештините како што се расудување, анализа и корекција на код.
Причини и контекст за промената
Јазичните модели бараат големи количини на податоци и долги циклуси на итерација. Со оглед на тоа што отворениот веб обезбедува сè помалку свежа содржина, компаниите им даваат приоритет на сигналите од вистински интеракции за да се рафинираат одговорите и подобро да се детектираат проблематични однесувања.
Како да го поставите вашиот преферентен став

Кога се најавуваат, многумина ќе го видат известувањето „Ажурирања на условите и политиките за потрошувачите„Во тоа поле ќе видите контрола што ќе им дозволи на вашите разговори да помогнат во подобрувањето на Клод. Ако не сакате да учествувате, оневозможете ја опцијата и потврдете со кликнување на „Прифати“.
Ако веќе сте прифатиле и сакате да го проверите, отворете го Клод и одете на Поставки > Приватност > Поставки за приватностТаму можете да ја промените опцијата „Помогнете да се подобри Клод“ кога сакате. Имајте предвид дека нејзиното оневозможување не брише ништо што е претходно користено; она што го прави е блокирање нови интеракции влезат во идна обука.
Ограничувања и појаснувања
Компанијата нагласува дека собирањето за цели на подобрување се однесува само за нова содржина по прифаќањето на условите. Продолжувањето на стар разговор додава неодамнешен материјал, но постарата содржина останува исклучена ако немало последователна активност. Користат деловни и владини сметки одделни услови, па затоа оваа промена не влијае на нив.
За оние кои даваат приоритет на максималната приватност, поставките ви овозможуваат да се откажете и да ја одржите 30-дневната политика. Од друга страна, оние кои придонесуваат податоци ќе видат како безбедносни механизми а можностите на моделот се прилагодуваат со сигнали од реалната употреба.
Со овој потег, Anthropic се стреми да го заокружи кругот помеѓу потребите за податоци и контролата на корисниците: Вие избирате дали вашите разговори помагаат во обуката, знаете колку долго се чуваат и можете да се предомислите кога сакате, со појасни правила за тоа што се собира и кога.
Јас сум технолошки ентузијаст кој своите „гикови“ интереси ги претвори во професија. Поминав повеќе од 10 години од мојот живот користејќи најсовремена технологија и непречено со сите видови програми од чиста љубопитност. Сега сум специјализиран за компјутерска технологија и видео игри. Тоа е затоа што повеќе од 5 години пишувам за различни веб-локации за технологија и видео игри, создавајќи статии кои се обидуваат да ви ги дадат потребните информации на јазик што е разбирлив за секого.
Ако имате прашања, моето знаење се движи од се што е поврзано со оперативниот систем Виндоус како и Андроид за мобилни телефони. И мојата посветеност е кон вас, јас сум секогаш подготвен да потрошам неколку минути и да ви помогнам да ги решите сите прашања што може да ги имате во овој интернет свет.

