- Anthropic introduce una preferencia explícita para que los usuarios elijan si sus conversaciones con Claude se usan para entrenamiento.
- El cambio afecta a planes Free, Pro y Max; quedan fuera Work, Gov, Education y uso vía API (Bedrock, Vertex AI).
- Retención de datos de cinco años si participas y de 30 días si no; los chats borrados no se usarán para entrenar.
- Es obligatorio fijar la preferencia antes del 28 de septiembre de 2025; se puede cambiar en cualquier momento en Privacidad.
Hablar con un asistente de IA se ha vuelto de lo más normal, pero rara vez pensamos qué pasa con esas charlas. Ahora Anthropic introduce un cambio relevante en la privacidad de Claude: a partir de una fecha límite, cada usuario tendrá que decidir si permite que sus conversaciones se utilicen para entrenar futuros modelos.
La compañía exigirá que quienes usen Claude en los planes Free, Pro y Max elijan su preferencia antes del 28 de septiembre de 2025. Sin esa elección, seguir empleando el servicio se complica; la decisión aparecerá en una notificación dentro de la app y también se podrá fijar durante el registro de cuentas nuevas.
Qué cambia exactamente
Desde ya, los usuarios pueden dar o no su permiso para que sus chats y sesiones de código ayuden a mejorar el rendimiento y la seguridad de Claude. La elección es voluntaria y reversible en cualquier momento desde la configuración de Privacidad, sin necesidad de pasar por procesos complicados.
La nueva política se aplica solo a la actividad posterior a la aceptación: los hilos antiguos sin nuevas interacciones no se usarán para entrenar. En cambio, si retomas un chat o una sesión de programación después de aceptar, lo que aportes desde ese momento sí puede entrar en el conjunto de datos de mejora.
El cambio no cubre todo el ecosistema de Anthropic. Quedan fuera Claude for Work, Claude Gov, Claude for Education y el acceso por API a través de proveedores como Amazon Bedrock o Vertex AI de Google Cloud. Es decir, el foco está en el uso de consumo de Claude.ai y Claude Code asociado a esos planes.
Quienes acepten ahora verán aplicados los efectos de inmediato en sus nuevas conversaciones. En todo caso, a partir de la fecha límite será obligatorio haber indicado una preferencia para continuar utilizando el servicio sin interrupciones.
Tratamiento y retención de datos
Si das tu permiso, la información aportada con fines de mejora podrá conservarse durante cinco años. Si no participas, se mantiene la política de retención de 30 días. Además, los chats eliminados no se incluirán en futuros entrenamientos, y el feedback que envíes puede conservarse bajo estas mismas reglas.
Anthropic afirma que combina herramientas y procesos automatizados para filtrar u ofuscar datos sensibles, y que no vende la información de los usuarios a terceros. A cambio, el uso de interacciones reales busca reforzar las salvaguardas contra abusos y mejorar capacidades como el razonamiento, el análisis o la corrección de código.
Motivos y contexto del cambio
Los modelos de lenguaje requieren grandes volúmenes de datos y ciclos largos de iteración. Con la web abierta aportando cada vez menos contenido fresco, las compañías priorizan señales procedentes de interacciones reales para pulir respuestas y detectar mejor comportamientos problemáticos.
Cómo configurar tu preferencia
Al iniciar sesión, muchos verán el aviso “Actualizaciones de los términos y políticas del consumidor”. En ese cuadro se muestra un control para permitir que tus conversaciones ayuden a mejorar Claude. Si no quieres participar, desactiva la opción y confirma pulsando “Aceptar”.
Si ya aceptaste y quieres comprobarlo, abre Claude y ve a Configuración > Privacidad > Configuración de privacidad. Allí puedes cambiar la opción “Ayuda a mejorar Claude” cuando quieras. Ten en cuenta que desactivarla no elimina lo que se hubiera usado antes; lo que sí hace es bloquear que nuevas interacciones entren en futuros entrenamientos.
Límites y aclaraciones
La compañía subraya que la recopilación con fines de mejora aplica solo a contenido nuevo tras aceptar los términos. Reanudar un chat antiguo añade material reciente, pero lo anterior permanece fuera si no hubo actividad posterior. Las cuentas empresariales y de gobierno usan condiciones separadas, por lo que este cambio no las afecta.
Para quienes priorizan la privacidad máxima, la configuración permite no participar y mantener la política de 30 días. Quienes colaboren con datos, por su parte, verán cómo los mecanismos de seguridad y las capacidades del modelo se ajustan con señales del uso real.
Con este movimiento, Anthropic busca cuadrar el círculo entre necesidad de datos y control del usuario: tú eliges si tus conversaciones ayudan a entrenar, sabes cuánto tiempo se guardan y puedes cambiar de idea cuando quieras, con reglas más claras sobre qué se recoge y cuándo.
Soy un apasionado de la tecnología que ha convertido sus intereses «frikis» en profesión. Llevo más de 10 años de mi vida utilizando tecnología de vanguardia y trasteando todo tipo de programas por pura curiosidad. Ahora me he especializado en tecnología de ordenador y videojuegos. Esto es por que desde hace más de 5 años que trabajo redactando para varias webs en materia de tecnología y videojuegos, creando artículos que buscan darte la información que necesitas con un lenguaje entendible por todos.
Si tienes cualquier pregunta, mis conocimientos van desde todo lo relacionado con el sistema operativo Windows así como Android para móviles. Y es que mi compromiso es contigo, siempre estoy dispuesto a dedicarte unos minutos y ayudarte a resolver cualquier duda que tengas en este mundo de internet.