Claude muda as regras: é assim que você deve configurar sua conta se não quiser que seus chats treinem a IA

Última atualização: 02/09/2025

  • O Anthropic introduz uma preferência explícita para que os usuários escolham se suas conversas com Claude serão usadas para treinamento.
  • A alteração afeta os planos Free, Pro e Max; Trabalho, Governo, Educação e uso de API (Bedrock, Vertex AI) são excluídos.
  • A retenção de dados é de cinco anos se você participar e de 30 dias se não participar; os chats excluídos não serão usados ​​para treinamento.
  • Você deve definir sua preferência até 28 de setembro de 2025; você pode alterá-la a qualquer momento em Privacidade.

Privacidade em Claude

Conversar com um assistente de IA se tornou bastante normal, mas raramente pensamos nisso. O que está acontecendo com essas conversas?. Agora a Anthropic apresenta uma mudança relevante na privacidade de Claude:Após um prazo, cada usuário terá que decidir se permite que suas conversas sejam usadas para treinar modelos futuros.

A empresa exigirá que aqueles que usam Claude nos planos Free, Pro e Max Escolha sua preferência antes de 28 de setembro de 2025Sem essa opção, continuar usando o serviço se torna mais difícil; a decisão aparecerá em uma notificação no aplicativo e também pode ser definida durante o registro de uma nova conta.

O que muda exatamente

Atualização de privacidade de Claude

A partir de agora, os usuários podem dar ou não permissão para seus chats e sessões de código ajudar a melhorar o desempenho e a segurança do Claude. A escolha é voluntária e reversível a qualquer momento nas suas Configurações de Privacidade, sem a necessidade de passar por processos complicados.

Conteúdo exclusivo - Clique aqui  Alibaba lança sua IA generativa para imagens e vídeos

A nova política aplica-se apenas à atividade pós-aceitaçãoTópicos antigos sem novas interações não serão usados ​​para treinamento. No entanto, se você retomar um bate-papo ou sessão de programação após aceitar, suas contribuições daquele ponto em diante poderão ser incluídas no conjunto de dados de melhorias.

A mudança não abrange todo o ecossistema antrópico. Eles ficam de fora. Claude para o Trabalho, Claude Governo, Claude para a Educação e acesso à API por meio de provedores como Amazon Bedrock ou Vertex AI do Google Cloud. Ou seja, o foco está no uso do Claude.ai e do Claude Code pelo consumidor, associados a esses planos.

Aqueles que aceitarem agora verão os efeitos aplicados imediatamente às suas novas conversas. De qualquer forma, a partir do prazo será obrigatório indicaram a preferência de continuar usando o serviço sem interrupção.

Processamento e retenção de dados

 

Se você der sua permissão, As informações fornecidas para fins de melhoria podem ser retidas por cinco anos. Se você não participar, a política de Retenção de 30 dias. Além disso, Os chats excluídos não serão incluídos em treinamentos futuros, e qualquer feedback que você enviar poderá ser retido sob essas mesmas regras.

Conteúdo exclusivo - Clique aqui  Como desinstalar o Bitdefender para Mac?

Afirmações antrópicas de combinar ferramentas e processos automatizados para filtrar ou ofuscar dados sensíveis e não vende informações do usuário a terceiros. Em contrapartida, o uso de interações reais busca fortalecer a salvaguardas contra abusos e melhorar habilidades como raciocínio, análise e correção de código.

Razões e contexto para a mudança

Os modelos de linguagem exigem grandes volumes de dados e longos ciclos de iteração. Com a web aberta fornecendo cada vez menos conteúdo novo, as empresas estão priorizando sinais de interações reais para refinar respostas e detectar melhor comportamentos problemáticos.

Como definir sua preferência

Claude Chrome antrópico

Ao fazer login, muitos verão o aviso “Atualizações nos termos e políticas do consumidor”. Nessa caixa, você verá um controle para permitir que suas conversas ajudem a melhorar o Claude. Se não quiser participar, desative a opção e confirme clicando em “Aceitar”.

Se você já aceitou e quer verificar, abra o Claude e vá em Configurações > Privacidade > Configurações de privacidadeLá você pode alterar a opção “Ajude a melhorar o Claude” sempre que quiser. Lembre-se de que desativá-la não apaga nada que foi usado anteriormente; o que faz é bloquear novas interações entrar em treinamento futuro.

Conteúdo exclusivo - Clique aqui  Como usar o Cloudflare WARP e o DNS 1.1.1.1 para acelerar sua internet

Limites e esclarecimentos

A empresa ressalta que a cobrança para fins de melhoria se aplica apenas para novos conteúdos após aceitar os termos. Retomar um bate-papo antigo adiciona material recente, mas o conteúdo mais antigo permanece excluído se não houver atividade subsequente. Contas comerciais e governamentais usam condições separadas, então essa mudança não os afeta.

Para aqueles que priorizam a privacidade máxima, as configurações permitem a desativação e a manutenção da política de 30 dias. Aqueles que contribuem com dados, por outro lado, verão como mecanismos de segurança e as capacidades do modelo são ajustadas com sinais de uso na vida real.

Com essa mudança, a Anthropic busca resolver o problema entre as necessidades de dados e o controle do usuário: Você escolhe se suas conversas ajudam a treinar, você sabe por quanto tempo eles ficam armazenados e pode mudar de ideia quando quiser, com regras mais claras sobre o que é coletado e quando.

como proteger a privacidade
Artigo relacionado:
Proteja sua privacidade no Google Gemini: guia completo