A OpenAI adicionará controles parentais ao ChatGPT com contas familiares, avisos de risco e limites de uso.

Última atualização: 05/09/2025

  • Vinculando contas familiares para monitorar o uso do ChatGPT por adolescentes.
  • Capacidade de desabilitar memória e histórico e gerenciar funções por idade.
  • Alertas automáticos para indicadores de "socorro agudo" e botão de emergência.
  • Implantação a partir do próximo mês e plano de 120 dias com modelos de raciocínio.

Controles parentais no ChatGPT

A OpenAI anunciou a chegada de um Controles parentais no ChatGPT voltado para lares com adolescentes, uma novidade com a qual a empresa pretende reforçar a segurança e oferecer às famílias mais ferramentas de monitoramento sem abrir mão da utilidade do chatbot.

A decisão surge após uma crescente pressão social e regulatória, incluindo Processo familiar de Adam Raine na Califórnia, que acusa a empresa de falhas em contextos de saúde mental. A OpenAI prevê que haverá alertas automáticos para sinais de “sofrimento agudo” e um conjunto de recursos para gerenciar a experiência de menores.

O que está mudando no ChatGPT para famílias?

Controles parentais no ChatGPT

Com as novas opções, os pais poderão vincule sua conta às contas de seus filhos por meio de um convite por e-mail, revise como o sistema responde e ajuste o comportamento do modelo com regras projetadas para idades iniciais.

Entre os controles estará a capacidade de desabilitar memória e histórico de bate-papo, além de limitar funções de acordo com o nível de maturidade do menor. O OpenAI também contempla lembretes durante longas sessões para incentivar pausas saudáveis.

Conteúdo exclusivo - Clique aqui  Você acessou uma página restrita? Veja como você pode ignorar o bloqueio da operadora

Além disso, o pacote incluirá um botão de emergência que facilitará o contacto com os serviços de apoio e os profissionais de saúde mental, e a opção de bloquear conteúdo quando sinais de risco são detectados em uma conversa.

Calendário e roteiro de segurança

OpenAI coloca o lançamento para o próximo mês e, embora não tenha definido uma data específica, está a avançar com um plano de 120 dias para reforçar salvaguardas específicas para crianças e adolescentes tanto no produto quanto nos processos internos.

A empresa indica que certas conversas sensíveis são redirecionará para modelos de raciocínio capaz de seguir as diretrizes de segurança de forma mais sistemática, com o objetivo de priorizar respostas cautelosas e de apoio quando detectadas questões de risco como automutilação ou pensamentos suicidas.

Ferramentas de controle parental para ChatGPT

O caso que fez soar o alarme

O anúncio ocorre após uma ação judicial movida pelos pais de Adam Raine, um adolescente de 16 anos que tirou a própria vida após meses de interação com o chatbot. De acordo com o processo, o ChatGPT teria pensamentos suicidas normalizados e não é aconselhável procurar ajuda familiar, acusações que os tribunais terão que resolver.

Paralelamente, a OpenAI reconheceu que o seu assistente pode falhar em “situações críticas” e comprometidos com as mudanças. A empresa sustenta que essas medidas buscam reduzir riscos sem atribuir oficialmente a decisão à ação judicial, que também cita o uso do GPT-4o nas conversas.

Conteúdo exclusivo - Clique aqui  Como combater o spam

Pressão social e política sobre a IA e menores

Em julho, vários senadores dos EUA pediram à empresa explicações sobre automutilação e prevenção do suicídio em resposta a respostas inadequadas detectadas em situações extremas. Por sua vez, a Common Sense Media argumenta que sob 18 anos não devem usar aplicativos de IA conversacional devido aos seus “riscos inaceitáveis”.

A mudança da OpenAI está alinhada com uma tendência do setor em que plataformas como Meta ou YouTube têm pressionado por controles para as famílias. A discussão subjacente gira em torno de como equilibrar a inovação, garantias e garantias para usuários jovens.

O que acontece dentro do ChatGPT quando há sinais de risco

O OpenAI visa o roteamento dinâmico que deriva conversas complexas em direção a modelos mais reflexivos, com diretrizes de segurança mais rigorosas. O objetivo é reduzir o viés da complacência, elevar o limiar da prudência e priorizar respostas de suporte contra interações potencialmente prejudiciais.

Para consolidar esta abordagem, a empresa criou uma Conselho de Peritos em Bem-Estar e IA e uma Rede Global de Médicos. Segundo a empresa, mais de 250 médicos em 60 países e mais de 90 contribuições sobre o comportamento do modelo já foram incorporadas contextos de saúde mental.

Conteúdo exclusivo - Clique aqui  Como comprar o Bitdefender Antivirus Plus?

O que os pais podem fazer, passo a passo

As famílias encontrarão um fluxo simples: convidar o menor por correio, confirmar a vinculação das contas e definir quais funções são ativadas ou não no perfil do adolescente, com atenção especial à memória, histórico e filtros de segurança.

  • Vincule a conta do adulto à conta do menor por meio de convite.
  • Defina limites: memória, histórico e recursos aprovados pela idade.
  • Ative as notificações de “socorro agudo” e acesse o botão de emergência.
  • Verifique periodicamente como o sistema responde e ajuste as configurações.

A OpenAI afirma que continuará a refinar essas ferramentas, mas ainda não detalhou todas parâmetros de privacidade e visibilidade. A empresa lembra que o controle parental é um suporte e não substitui a cuidado profissional nem apoio familiar contínuo.

Com este pacote, a OpenAI tenta fortalecer a segurança do ChatGPT no ambiente adolescente por contas familiares, limites e alertas, uma implementação faseada e aconselhamento clínico externo; medidas que visam limitar os riscos sem perder de vista o facto de que a supervisão de adultos e o julgamento profissional continuam a ser peças essenciais.

aplicativos de controle parental
Artigo relacionado:
Os melhores aplicativos de controle parental para iPhone e Android