- Vinculando contas familiares para monitorar o uso do ChatGPT por adolescentes.
- Capacidade de desabilitar memória e histórico e gerenciar funções por idade.
- Alertas automáticos para indicadores de "socorro agudo" e botão de emergência.
- Implantação a partir do próximo mês e plano de 120 dias com modelos de raciocínio.

A OpenAI anunciou a chegada de um Controles parentais no ChatGPT voltado para lares com adolescentes, uma novidade com a qual a empresa pretende reforçar a segurança e oferecer às famílias mais ferramentas de monitoramento sem abrir mão da utilidade do chatbot.
A decisão surge após uma crescente pressão social e regulatória, incluindo Processo familiar de Adam Raine na Califórnia, que acusa a empresa de falhas em contextos de saúde mental. A OpenAI prevê que haverá alertas automáticos para sinais de “sofrimento agudo” e um conjunto de recursos para gerenciar a experiência de menores.
O que está mudando no ChatGPT para famílias?
Com as novas opções, os pais poderão vincule sua conta às contas de seus filhos por meio de um convite por e-mail, revise como o sistema responde e ajuste o comportamento do modelo com regras projetadas para idades iniciais.
Entre os controles estará a capacidade de desabilitar memória e histórico de bate-papo, além de limitar funções de acordo com o nível de maturidade do menor. O OpenAI também contempla lembretes durante longas sessões para incentivar pausas saudáveis.
Além disso, o pacote incluirá um botão de emergência que facilitará o contacto com os serviços de apoio e os profissionais de saúde mental, e a opção de bloquear conteúdo quando sinais de risco são detectados em uma conversa.
Calendário e roteiro de segurança
OpenAI coloca o lançamento para o próximo mês e, embora não tenha definido uma data específica, está a avançar com um plano de 120 dias para reforçar salvaguardas específicas para crianças e adolescentes tanto no produto quanto nos processos internos.
A empresa indica que certas conversas sensíveis são redirecionará para modelos de raciocínio capaz de seguir as diretrizes de segurança de forma mais sistemática, com o objetivo de priorizar respostas cautelosas e de apoio quando detectadas questões de risco como automutilação ou pensamentos suicidas.

O caso que fez soar o alarme
O anúncio ocorre após uma ação judicial movida pelos pais de Adam Raine, um adolescente de 16 anos que tirou a própria vida após meses de interação com o chatbot. De acordo com o processo, o ChatGPT teria pensamentos suicidas normalizados e não é aconselhável procurar ajuda familiar, acusações que os tribunais terão que resolver.
Paralelamente, a OpenAI reconheceu que o seu assistente pode falhar em “situações críticas” e comprometidos com as mudanças. A empresa sustenta que essas medidas buscam reduzir riscos sem atribuir oficialmente a decisão à ação judicial, que também cita o uso do GPT-4o nas conversas.
Pressão social e política sobre a IA e menores
Em julho, vários senadores dos EUA pediram à empresa explicações sobre automutilação e prevenção do suicídio em resposta a respostas inadequadas detectadas em situações extremas. Por sua vez, a Common Sense Media argumenta que sob 18 anos não devem usar aplicativos de IA conversacional devido aos seus “riscos inaceitáveis”.
A mudança da OpenAI está alinhada com uma tendência do setor em que plataformas como Meta ou YouTube têm pressionado por controles para as famílias. A discussão subjacente gira em torno de como equilibrar a inovação, garantias e garantias para usuários jovens.
O que acontece dentro do ChatGPT quando há sinais de risco
O OpenAI visa o roteamento dinâmico que deriva conversas complexas em direção a modelos mais reflexivos, com diretrizes de segurança mais rigorosas. O objetivo é reduzir o viés da complacência, elevar o limiar da prudência e priorizar respostas de suporte contra interações potencialmente prejudiciais.
Para consolidar esta abordagem, a empresa criou uma Conselho de Peritos em Bem-Estar e IA e uma Rede Global de Médicos. Segundo a empresa, mais de 250 médicos em 60 países e mais de 90 contribuições sobre o comportamento do modelo já foram incorporadas contextos de saúde mental.
O que os pais podem fazer, passo a passo
As famílias encontrarão um fluxo simples: convidar o menor por correio, confirmar a vinculação das contas e definir quais funções são ativadas ou não no perfil do adolescente, com atenção especial à memória, histórico e filtros de segurança.
- Vincule a conta do adulto à conta do menor por meio de convite.
- Defina limites: memória, histórico e recursos aprovados pela idade.
- Ative as notificações de “socorro agudo” e acesse o botão de emergência.
- Verifique periodicamente como o sistema responde e ajuste as configurações.
A OpenAI afirma que continuará a refinar essas ferramentas, mas ainda não detalhou todas parâmetros de privacidade e visibilidade. A empresa lembra que o controle parental é um suporte e não substitui a cuidado profissional nem apoio familiar contínuo.
Com este pacote, a OpenAI tenta fortalecer a segurança do ChatGPT no ambiente adolescente por contas familiares, limites e alertas, uma implementação faseada e aconselhamento clínico externo; medidas que visam limitar os riscos sem perder de vista o facto de que a supervisão de adultos e o julgamento profissional continuam a ser peças essenciais.
Sou um entusiasta da tecnologia que transformou seus interesses “geek” em profissão. Passei mais de 10 anos da minha vida usando tecnologia de ponta e mexendo em todos os tipos de programas por pura curiosidade. Agora me especializei em informática e videogames. Isto porque há mais de 5 anos escrevo para diversos sites sobre tecnologia e videojogos, criando artigos que procuram dar-lhe a informação que necessita numa linguagem compreensível para todos.
Se você tiver alguma dúvida, meu conhecimento vai desde tudo relacionado ao sistema operacional Windows até Android para celulares. E meu compromisso é com você, estou sempre disposto a dedicar alguns minutos e te ajudar a resolver qualquer dúvida que você possa ter nesse mundo da internet.
