Claude cambia las reglas: así debes configurar tu cuenta si no quieres que tus chats entrenen la IA

Última actualización: 02/09/2025

  • Anthropic introduce una preferencia explícita para que los usuarios elijan si sus conversaciones con Claude se usan para entrenamiento.
  • El cambio afecta a planes Free, Pro y Max; quedan fuera Work, Gov, Education y uso vía API (Bedrock, Vertex AI).
  • Retención de datos de cinco años si participas y de 30 días si no; los chats borrados no se usarán para entrenar.
  • Es obligatorio fijar la preferencia antes del 28 de septiembre de 2025; se puede cambiar en cualquier momento en Privacidad.

Privacidad en Claude

Hablar con un asistente de IA se ha vuelto de lo más normal, pero rara vez pensamos qué pasa con esas charlas. Ahora Anthropic introduce un cambio relevante en la privacidad de Claude: a partir de una fecha límite, cada usuario tendrá que decidir si permite que sus conversaciones se utilicen para entrenar futuros modelos.

La compañía exigirá que quienes usen Claude en los planes Free, Pro y Max elijan su preferencia antes del 28 de septiembre de 2025. Sin esa elección, seguir empleando el servicio se complica; la decisión aparecerá en una notificación dentro de la app y también se podrá fijar durante el registro de cuentas nuevas.

Qué cambia exactamente

Actualización de privacidad de Claude

Desde ya, los usuarios pueden dar o no su permiso para que sus chats y sesiones de código ayuden a mejorar el rendimiento y la seguridad de Claude. La elección es voluntaria y reversible en cualquier momento desde la configuración de Privacidad, sin necesidad de pasar por procesos complicados.

Contenido exclusivo - Clic Aquí  ¿Qué herramientas de seguridad adicionales ofrece Panda Free Antivirus?

La nueva política se aplica solo a la actividad posterior a la aceptación: los hilos antiguos sin nuevas interacciones no se usarán para entrenar. En cambio, si retomas un chat o una sesión de programación después de aceptar, lo que aportes desde ese momento sí puede entrar en el conjunto de datos de mejora.

El cambio no cubre todo el ecosistema de Anthropic. Quedan fuera Claude for Work, Claude Gov, Claude for Education y el acceso por API a través de proveedores como Amazon Bedrock o Vertex AI de Google Cloud. Es decir, el foco está en el uso de consumo de Claude.ai y Claude Code asociado a esos planes.

Quienes acepten ahora verán aplicados los efectos de inmediato en sus nuevas conversaciones. En todo caso, a partir de la fecha límite será obligatorio haber indicado una preferencia para continuar utilizando el servicio sin interrupciones.

Tratamiento y retención de datos

 

Si das tu permiso, la información aportada con fines de mejora podrá conservarse durante cinco años. Si no participas, se mantiene la política de retención de 30 días. Además, los chats eliminados no se incluirán en futuros entrenamientos, y el feedback que envíes puede conservarse bajo estas mismas reglas.

Contenido exclusivo - Clic Aquí  Cómo interceptar un teléfono celular

Anthropic afirma que combina herramientas y procesos automatizados para filtrar u ofuscar datos sensibles, y que no vende la información de los usuarios a terceros. A cambio, el uso de interacciones reales busca reforzar las salvaguardas contra abusos y mejorar capacidades como el razonamiento, el análisis o la corrección de código.

Motivos y contexto del cambio

Los modelos de lenguaje requieren grandes volúmenes de datos y ciclos largos de iteración. Con la web abierta aportando cada vez menos contenido fresco, las compañías priorizan señales procedentes de interacciones reales para pulir respuestas y detectar mejor comportamientos problemáticos.

Cómo configurar tu preferencia

Anthropic Claude Chrome

Al iniciar sesión, muchos verán el aviso “Actualizaciones de los términos y políticas del consumidor”. En ese cuadro se muestra un control para permitir que tus conversaciones ayuden a mejorar Claude. Si no quieres participar, desactiva la opción y confirma pulsando “Aceptar”.

Si ya aceptaste y quieres comprobarlo, abre Claude y ve a Configuración > Privacidad > Configuración de privacidad. Allí puedes cambiar la opción “Ayuda a mejorar Claude” cuando quieras. Ten en cuenta que desactivarla no elimina lo que se hubiera usado antes; lo que sí hace es bloquear que nuevas interacciones entren en futuros entrenamientos.

Contenido exclusivo - Clic Aquí  Programas para robar contraseñas

Límites y aclaraciones

La compañía subraya que la recopilación con fines de mejora aplica solo a contenido nuevo tras aceptar los términos. Reanudar un chat antiguo añade material reciente, pero lo anterior permanece fuera si no hubo actividad posterior. Las cuentas empresariales y de gobierno usan condiciones separadas, por lo que este cambio no las afecta.

Para quienes priorizan la privacidad máxima, la configuración permite no participar y mantener la política de 30 días. Quienes colaboren con datos, por su parte, verán cómo los mecanismos de seguridad y las capacidades del modelo se ajustan con señales del uso real.

Con este movimiento, Anthropic busca cuadrar el círculo entre necesidad de datos y control del usuario: tú eliges si tus conversaciones ayudan a entrenar, sabes cuánto tiempo se guardan y puedes cambiar de idea cuando quieras, con reglas más claras sobre qué se recoge y cuándo.

como proteger privacidad
Artículo relacionado:
Protege tu privacidad en Google Gemini: Guía completa

Deja un comentario