Claude canvia les regles: així has ​​de configurar el teu compte si no vols que els teus xats entrenin la IA

Última actualització: 02/09/2025

  • Anthropic introdueix una preferència explícita perquè els usuaris escullin si les vostres converses amb Claude s'usen per a entrenament.
  • El canvi afecta plans Free, Pro i Max; queden fora Work, Gov, Education i ús via API (Bedrock, Vertex AI).
  • Retenció de dades de cinc anys si hi participes i de 30 dies si no; els xats esborrats no es faran servir per entrenar.
  • És obligatori fixar la preferència abans del 28 de setembre del 2025; es pot canviar en qualsevol moment a Privadesa.

Privadesa a Claude

Parlar amb un assistent d'IA s'ha tornat del més normal, però poques vegades pensem què passa amb aquestes xerrades. Ara Anthropic introdueix un canvi rellevant en la privadesa de Claude: a partir d'una data límit, cada usuari haurà de decidir si permet que les converses s'utilitzin per entrenar futurs models.

La companyia exigirà que els que usin Claude en els plans Free, Pro i Max trieu la vostra preferència abans del 28 de setembre de 2025. Sense aquesta elecció, continuar emprant el servei es complica; la decisió apareixerà en una notificació dins de l'app i també es podrà fixar durant el registre de comptes nous.

Qué cambia exactamente

Actualització de privadesa de Claude

Des de ja, els usuaris poden donar o no el seu permís perquè els seus xats i sessions de codi ajudin a millorar el rendiment i la seguretat de Claude. L'elecció és voluntària i reversible en qualsevol moment des de la configuració de Privadesa, sense necessitat de passar per processos complicats.

Contingut exclusiu - Clic Aquí  És segur fer servir bots en discord?

La nova política només s'aplica a la activitat posterior a l'acceptació: els fils antics sense noves interaccions no es faran servir per entrenar. En canvi, si reprens un xat o una sessió de programació després d'acceptar, el que aportis des d'aquell moment sí que pot entrar al conjunt de dades de millora.

El canvi no cobreix tot l'ecosistema d'Anthropic. Queden fora Claude for Work, Claude Gov, Claude for Education i l'accés per API mitjançant proveïdors com Amazon Bedrock o Vertex AI de Google Cloud. És a dir, el focus està en l'ús de consum de Claude.ai i Claude Code associat a aquests plans.

Els que acceptin ara veuran aplicats els efectes immediatament a les seves noves converses. En tot cas, a partir de la data límit serà obligatori haver indicat una preferència per continuar utilitzant el servei sense interrupcions.

Tractament i retenció de dades

 

Si dónes el teu permís, la informació aportada amb fins de millora es podrà conservar durant cinco años. Si no hi participes, es manté la política de retenció de 30 dies. A més, els xats eliminats no s'inclouran en futurs entrenaments, i el feedback que enviïs pot conservar-se sota aquestes mateixes regles.

Contingut exclusiu - Clic Aquí  Com posar contrasenya a una app?

Anthropic afirma que combina eines i processos automatitzats per filtrar o ofuscar dades sensibles, i que no ven la informació dels usuaris a tercers. A canvi, l'ús d'interaccions reals cerca reforçar les salvaguardes contra abusos i millorar capacitats com ara el raonament, l'anàlisi o la correcció de codi.

Motius i context del canvi

Els models de llenguatge requereixen grans volums de dades i cicles llargs d'iteració. Amb la web oberta aportant cada cop menys contingut fresc, les companyies prioritzen senyals procedents de interacciones reales per polir respostes i detectar millor comportaments problemàtics.

Com configurar la teva preferència

Anthropic Claude Chrome

En iniciar sessió, molts veuran l'avís “Actualitzacions dels termes i polítiques del consumidor"En aquest quadre es mostra un control per permetre que les teves converses ajudin a millorar Claude. Si no vols participar, desactiva l'opció i confirma prement "Acceptar".

Si ja vas acceptar i vols comprovar-ho, obre Claude i vés a Configuració > Privadesa > Configuració de privadesa. Allà podeu canviar l'opció “Ajuda a millorar Claude” quan vulguis. Tingues en compte que desactivar-la no elimina el que s'hagués fet servir abans; el que sí que fa és bloquejar que nuevas interacciones entrin en futurs entrenaments.

Contingut exclusiu - Clic Aquí  Google introdueix Gemini Live amb noves funcions d'IA en temps real

Límits i aclariments

La companyia subratlla que la recopilació amb fins de millora aplica només a contingut nou després d'acceptar els termes. Reprendre un xat antic afegeix material recent, però això roman fora si no hi va haver activitat posterior. Els comptes empresarials i de govern usen condicions separades, de manera que aquest canvi no les afecta.

Per als qui prioritzen la privadesa màxima, la configuració permet no participar i mantenir la política de 30 dies. Els qui col·laborin amb dades, per la seva banda, veuran com los mecanismos de seguridad i les capacitats del model s´ajusten amb senyals de l´ús real.

Amb aquest moviment, Anthropic cerca quadrar el cercle entre necessitat de dades i control de l'usuari: tu tries si les teves converses ajuden a entrenar, saps quant de temps es guarden i pots canviar d'idea quan vulguis, amb regles més clares sobre què es recull i quan.

com protegir privadesa
Article relacionat:
Protegeix la teva privadesa a Google Gemini: Guia completa