- Anthropic introdueix una preferència explícita perquè els usuaris escullin si les vostres converses amb Claude s'usen per a entrenament.
- El canvi afecta plans Free, Pro i Max; queden fora Work, Gov, Education i ús via API (Bedrock, Vertex AI).
- Retenció de dades de cinc anys si hi participes i de 30 dies si no; els xats esborrats no es faran servir per entrenar.
- És obligatori fixar la preferència abans del 28 de setembre del 2025; es pot canviar en qualsevol moment a Privadesa.
Parlar amb un assistent d'IA s'ha tornat del més normal, però poques vegades pensem què passa amb aquestes xerrades. Ara Anthropic introdueix un canvi rellevant en la privadesa de Claude: a partir d'una data límit, cada usuari haurà de decidir si permet que les converses s'utilitzin per entrenar futurs models.
La companyia exigirà que els que usin Claude en els plans Free, Pro i Max trieu la vostra preferència abans del 28 de setembre de 2025. Sense aquesta elecció, continuar emprant el servei es complica; la decisió apareixerà en una notificació dins de l'app i també es podrà fixar durant el registre de comptes nous.
Qué cambia exactamente
Des de ja, els usuaris poden donar o no el seu permís perquè els seus xats i sessions de codi ajudin a millorar el rendiment i la seguretat de Claude. L'elecció és voluntària i reversible en qualsevol moment des de la configuració de Privadesa, sense necessitat de passar per processos complicats.
La nova política només s'aplica a la activitat posterior a l'acceptació: els fils antics sense noves interaccions no es faran servir per entrenar. En canvi, si reprens un xat o una sessió de programació després d'acceptar, el que aportis des d'aquell moment sí que pot entrar al conjunt de dades de millora.
El canvi no cobreix tot l'ecosistema d'Anthropic. Queden fora Claude for Work, Claude Gov, Claude for Education i l'accés per API mitjançant proveïdors com Amazon Bedrock o Vertex AI de Google Cloud. És a dir, el focus està en l'ús de consum de Claude.ai i Claude Code associat a aquests plans.
Els que acceptin ara veuran aplicats els efectes immediatament a les seves noves converses. En tot cas, a partir de la data límit serà obligatori haver indicat una preferència per continuar utilitzant el servei sense interrupcions.
Tractament i retenció de dades
Si dónes el teu permís, la informació aportada amb fins de millora es podrà conservar durant cinco años. Si no hi participes, es manté la política de retenció de 30 dies. A més, els xats eliminats no s'inclouran en futurs entrenaments, i el feedback que enviïs pot conservar-se sota aquestes mateixes regles.
Anthropic afirma que combina eines i processos automatitzats per filtrar o ofuscar dades sensibles, i que no ven la informació dels usuaris a tercers. A canvi, l'ús d'interaccions reals cerca reforçar les salvaguardes contra abusos i millorar capacitats com ara el raonament, l'anàlisi o la correcció de codi.
Motius i context del canvi
Els models de llenguatge requereixen grans volums de dades i cicles llargs d'iteració. Amb la web oberta aportant cada cop menys contingut fresc, les companyies prioritzen senyals procedents de interacciones reales per polir respostes i detectar millor comportaments problemàtics.
Com configurar la teva preferència

En iniciar sessió, molts veuran l'avís “Actualitzacions dels termes i polítiques del consumidor"En aquest quadre es mostra un control per permetre que les teves converses ajudin a millorar Claude. Si no vols participar, desactiva l'opció i confirma prement "Acceptar".
Si ja vas acceptar i vols comprovar-ho, obre Claude i vés a Configuració > Privadesa > Configuració de privadesa. Allà podeu canviar l'opció “Ajuda a millorar Claude” quan vulguis. Tingues en compte que desactivar-la no elimina el que s'hagués fet servir abans; el que sí que fa és bloquejar que nuevas interacciones entrin en futurs entrenaments.
Límits i aclariments
La companyia subratlla que la recopilació amb fins de millora aplica només a contingut nou després d'acceptar els termes. Reprendre un xat antic afegeix material recent, però això roman fora si no hi va haver activitat posterior. Els comptes empresarials i de govern usen condicions separades, de manera que aquest canvi no les afecta.
Per als qui prioritzen la privadesa màxima, la configuració permet no participar i mantenir la política de 30 dies. Els qui col·laborin amb dades, per la seva banda, veuran com los mecanismos de seguridad i les capacitats del model s´ajusten amb senyals de l´ús real.
Amb aquest moviment, Anthropic cerca quadrar el cercle entre necessitat de dades i control de l'usuari: tu tries si les teves converses ajuden a entrenar, saps quant de temps es guarden i pots canviar d'idea quan vulguis, amb regles més clares sobre què es recull i quan.
Sóc un apassionat de la tecnologia que ha convertit els seus interessos frikis en professió. Porto més de 10 anys de la meva vida utilitzant tecnologia d'avantguarda i traslladant tota mena de programes per pura curiositat. Ara he especialitzat en tecnologia d'ordinador i videojocs. Això és perquè des de fa més de 5 anys que treballo redactant per a diverses webs en matèria de tecnologia i videojocs, creant articles que busquen donar-te la informació que necessites amb un llenguatge comprensible per tothom.
Si tens qualsevol pregunta, els meus coneixements van des de tot allò relacionat amb el sistema operatiu Windows així com Android per a mòbils. I és que el meu compromís és amb tu, sempre estic disposat a dedicar-te uns minuts i ajudar-te a resoldre qualsevol dubte que tinguis a aquest món d'internet.

