- O Anthropic introduz uma preferência explícita para que os usuários escolham se suas conversas com Claude serão usadas para treinamento.
- A alteração afeta os planos Free, Pro e Max; Trabalho, Governo, Educação e uso de API (Bedrock, Vertex AI) são excluídos.
- A retenção de dados é de cinco anos se você participar e de 30 dias se não participar; os chats excluídos não serão usados para treinamento.
- Você deve definir sua preferência até 28 de setembro de 2025; você pode alterá-la a qualquer momento em Privacidade.

Conversar com um assistente de IA se tornou bastante normal, mas raramente pensamos nisso. O que está acontecendo com essas conversas?. Agora a Anthropic apresenta uma mudança relevante na privacidade de Claude:Após um prazo, cada usuário terá que decidir se permite que suas conversas sejam usadas para treinar modelos futuros.
A empresa exigirá que aqueles que usam Claude nos planos Free, Pro e Max Escolha sua preferência antes de 28 de setembro de 2025Sem essa opção, continuar usando o serviço se torna mais difícil; a decisão aparecerá em uma notificação no aplicativo e também pode ser definida durante o registro de uma nova conta.
O que muda exatamente
A partir de agora, os usuários podem dar ou não permissão para seus chats e sessões de código ajudar a melhorar o desempenho e a segurança do Claude. A escolha é voluntária e reversível a qualquer momento nas suas Configurações de Privacidade, sem a necessidade de passar por processos complicados.
A nova política aplica-se apenas à atividade pós-aceitaçãoTópicos antigos sem novas interações não serão usados para treinamento. No entanto, se você retomar um bate-papo ou sessão de programação após aceitar, suas contribuições daquele ponto em diante poderão ser incluídas no conjunto de dados de melhorias.
A mudança não abrange todo o ecossistema antrópico. Eles ficam de fora. Claude para o Trabalho, Claude Governo, Claude para a Educação e acesso à API por meio de provedores como Amazon Bedrock ou Vertex AI do Google Cloud. Ou seja, o foco está no uso do Claude.ai e do Claude Code pelo consumidor, associados a esses planos.
Aqueles que aceitarem agora verão os efeitos aplicados imediatamente às suas novas conversas. De qualquer forma, a partir do prazo será obrigatório indicaram a preferência de continuar usando o serviço sem interrupção.
Processamento e retenção de dados
Se você der sua permissão, As informações fornecidas para fins de melhoria podem ser retidas por cinco anos. Se você não participar, a política de Retenção de 30 dias. Além disso, Os chats excluídos não serão incluídos em treinamentos futuros, e qualquer feedback que você enviar poderá ser retido sob essas mesmas regras.
Afirmações antrópicas de combinar ferramentas e processos automatizados para filtrar ou ofuscar dados sensíveis e não vende informações do usuário a terceiros. Em contrapartida, o uso de interações reais busca fortalecer a salvaguardas contra abusos e melhorar habilidades como raciocínio, análise e correção de código.
Razões e contexto para a mudança
Os modelos de linguagem exigem grandes volumes de dados e longos ciclos de iteração. Com a web aberta fornecendo cada vez menos conteúdo novo, as empresas estão priorizando sinais de interações reais para refinar respostas e detectar melhor comportamentos problemáticos.
Como definir sua preferência

Ao fazer login, muitos verão o aviso “Atualizações nos termos e políticas do consumidor”. Nessa caixa, você verá um controle para permitir que suas conversas ajudem a melhorar o Claude. Se não quiser participar, desative a opção e confirme clicando em “Aceitar”.
Se você já aceitou e quer verificar, abra o Claude e vá em Configurações > Privacidade > Configurações de privacidadeLá você pode alterar a opção “Ajude a melhorar o Claude” sempre que quiser. Lembre-se de que desativá-la não apaga nada que foi usado anteriormente; o que faz é bloquear novas interações entrar em treinamento futuro.
Limites e esclarecimentos
A empresa ressalta que a cobrança para fins de melhoria se aplica apenas para novos conteúdos após aceitar os termos. Retomar um bate-papo antigo adiciona material recente, mas o conteúdo mais antigo permanece excluído se não houver atividade subsequente. Contas comerciais e governamentais usam condições separadas, então essa mudança não os afeta.
Para aqueles que priorizam a privacidade máxima, as configurações permitem a desativação e a manutenção da política de 30 dias. Aqueles que contribuem com dados, por outro lado, verão como mecanismos de segurança e as capacidades do modelo são ajustadas com sinais de uso na vida real.
Com essa mudança, a Anthropic busca resolver o problema entre as necessidades de dados e o controle do usuário: Você escolhe se suas conversas ajudam a treinar, você sabe por quanto tempo eles ficam armazenados e pode mudar de ideia quando quiser, com regras mais claras sobre o que é coletado e quando.
Sou um entusiasta da tecnologia que transformou seus interesses “geek” em profissão. Passei mais de 10 anos da minha vida usando tecnologia de ponta e mexendo em todos os tipos de programas por pura curiosidade. Agora me especializei em informática e videogames. Isto porque há mais de 5 anos escrevo para diversos sites sobre tecnologia e videojogos, criando artigos que procuram dar-lhe a informação que necessita numa linguagem compreensível para todos.
Se você tiver alguma dúvida, meu conhecimento vai desde tudo relacionado ao sistema operacional Windows até Android para celulares. E meu compromisso é com você, estou sempre disposto a dedicar alguns minutos e te ajudar a resolver qualquer dúvida que você possa ter nesse mundo da internet.

