- Anthropic introduce una preferenza esplicita per gli utenti, che possono scegliere se le loro conversazioni con Claude debbano essere utilizzate per la formazione.
- La modifica riguarda i piani Free, Pro e Max; sono esclusi i piani Work, Government, Education e l'utilizzo delle API (Bedrock, Vertex AI).
- La conservazione dei dati è di cinque anni se si partecipa e di 30 giorni se non si partecipa; le chat eliminate non verranno utilizzate per la formazione.
- È necessario impostare la propria preferenza entro il 28 settembre 2025; è possibile modificarla in qualsiasi momento nella sezione Privacy.

Parlare con un assistente AI è diventato abbastanza normale, ma raramente ci pensiamo. Cosa succede con quei discorsi?. Ora Anthropic introduce un cambiamento rilevante nella privacy di Claude: Dopo una scadenza, ogni utente dovrà decidere se consentire che le proprie conversazioni vengano utilizzate per addestrare modelli futuri.
L'azienda richiederà a coloro che utilizzano Claude i piani Free, Pro e Max Scegli la tua preferenza entro il 28 settembre 2025Senza questa scelta, continuare a utilizzare il servizio diventa più difficile; la decisione apparirà in una notifica nell'app e potrà essere impostata anche durante la registrazione di un nuovo account.
Cosa cambia esattamente
D'ora in poi gli utenti potranno dare o meno il loro permesso per le tue chat e sessioni di codice Aiutaci a migliorare le prestazioni e la sicurezza di Claude. La scelta è volontaria e reversibile in qualsiasi momento dalle tue impostazioni sulla privacy, senza dover passare attraverso procedure complicate.
La nuova politica si applica solo a attività post-accettazioneI vecchi thread senza nuove interazioni non verranno utilizzati per la formazione. Tuttavia, se riprendi una chat o una sessione di programmazione dopo aver accettato, i tuoi contributi da quel momento in poi potranno essere inclusi nel set di dati di miglioramento.
Il cambiamento non riguarda l'intero ecosistema antropico. Ne sono rimasti esclusi. Claude per il lavoro, Claude Gov, Claude per l'istruzione e accesso alle API tramite provider come Amazon Bedrock o Vertex AI di Google Cloud. In altre parole, l'attenzione è rivolta all'utilizzo da parte dei consumatori di Claude.ai e Claude Code associato a tali piani.
Chi accetta ora vedrà gli effetti applicati immediatamente alle sue nuove conversazioni. In ogni caso, dalla scadenza sarà obbligatorio hanno espresso la preferenza di continuare a utilizzare il servizio senza interruzioni.
Elaborazione e conservazione dei dati
Se dai il tuo permesso, Le informazioni fornite a fini di miglioramento possono essere conservate per cinque anniSe non partecipi, la politica di Conservazione di 30 giorni. Anche Le chat eliminate non saranno incluse nelle future formazionie qualsiasi feedback inviato potrà essere conservato secondo le stesse regole.
Le pretese antropiche di combinare strumenti e processi automatizzati per filtrare o offuscare i dati sensibili e non vende le informazioni degli utenti a terzi. In cambio, l'uso di interazioni reali cerca di rafforzare garanzie contro gli abusi e migliorare competenze quali ragionamento, analisi e correzione del codice.
Motivi e contesto del cambiamento
I modelli linguistici richiedono grandi volumi di dati e lunghi cicli di iterazione. Con il web aperto che fornisce sempre meno contenuti freschi, le aziende stanno dando priorità ai segnali provenienti da interazioni reali per perfezionare le risposte e rilevare meglio i comportamenti problematici.
Come impostare la tua preferenza

Quando si effettua l'accesso, molti vedranno l'avviso "Aggiornamenti ai termini e alle politiche per i consumatori”. In quella casella, vedrai un controllo per consentire alle tue conversazioni di contribuire a migliorare Claude. Se non vuoi partecipare, disattiva l'opzione e conferma cliccando su "Accetta".
Se hai già accettato e vuoi verificarlo, apri Claude e vai su Impostazioni > Privacy > Impostazioni privacyQui puoi modificare l'opzione "Aiuta a migliorare Claude" in qualsiasi momento. Tieni presente che disattivarla non elimina nulla di ciò che è stato utilizzato in precedenza; ciò che fa è bloccarlo. nuove interazioni accedere alla formazione futura.
Limiti e chiarimenti
La società sottolinea che la raccolta a fini migliorativi si applica solo ai nuovi contenuti dopo aver accettato i termini. Riprendendo una vecchia chat si aggiunge materiale recente, ma i contenuti più vecchi rimangono esclusi se non c'è stata alcuna attività successiva. Gli account aziendali e governativi utilizzano condizioni separate, quindi questa modifica non li riguarda.
Per coloro che danno priorità alla massima privacy, le impostazioni consentono di disattivare e mantenere la politica di 30 giorni. Chi fornisce dati, invece, vedrà come meccanismi di sicurezza e le capacità del modello vengono adattate in base ai segnali provenienti dall'uso reale.
Con questa mossa, Anthropic cerca di quadrare il cerchio tra esigenze di dati e controllo dell'utente: Scegli tu se le tue conversazioni aiutano a formare, sai per quanto tempo vengono conservati e puoi cambiare idea in qualsiasi momento, con regole più chiare su cosa viene raccolto e quando.
Sono un appassionato di tecnologia che ha trasformato i suoi interessi "geek" in una professione. Ho trascorso più di 10 anni della mia vita utilizzando tecnologie all'avanguardia e armeggiando con tutti i tipi di programmi per pura curiosità. Ora mi sono specializzato in informatica e videogiochi. Questo perché da più di 5 anni scrivo per vari siti web di tecnologia e videogiochi, creando articoli che cercano di darti le informazioni di cui hai bisogno in un linguaggio comprensibile a tutti.
In caso di domande, le mie conoscenze spaziano da tutto ciò che riguarda il sistema operativo Windows e Android per telefoni cellulari. E il mio impegno è nei tuoi confronti, sono sempre disposto a dedicare qualche minuto e aiutarti a risolvere qualsiasi domanda tu possa avere in questo mondo di Internet.

