- Vinculació de comptes familiars per supervisar lús adolescent de ChatGPT.
- Possibilitat de desactivar memòria i historial i gestionar funcions per edat.
- Alertes automàtiques davant d'indicadors d'angoixa aguda i botó d'emergència.
- Desplegament des del proper mes i pla de 120 dies amb models de raonament.

OpenAI ha anunciat l'arribada d'un control parental a ChatGPT orientat a llars amb adolescents, una novetat amb què la companyia pretén reforçar la seguretat i oferir a les famílies més eines de supervisió sense renunciar a la utilitat del chatbot.
La decisió es produeix després d'una creixent pressió social i regulatòria, inclosa la demanda de la família d'Adam Raine a Califòrnia, que acusa l'empresa de fallades en contextos de salut mental. OpenAI avança que hi haurà avisos automàtics davant senyals d'angoixa aguda i un paquet de funcions per gestionar lexperiència dels menors.
Què canvia a ChatGPT per a les famílies
Amb les noves opcions, els progenitors podran vincular el vostre compte amb el dels vostres fills mitjançant una invitació per correu electrònic, revisar com respon el sistema i ajustar el comportament del model amb regles pensades per a edats primerenques.
Entre els controls destacarà la capacitat de desactivar la memòria i l'historial de conversa, així com limitar funcions segons el nivell de maduresa del menor. OpenAI també contempla recordatoris durant sessions llargues per fomentar pauses saludables.
A més, el paquet inclourà un botó d'emergència que facilitarà el contacte amb serveis d'ajuda i professionals de salut mental, i l'opció de bloquejar continguts quan es detectin senyals de risc en una xerrada.
Calendari i full de ruta de seguretat
OpenAI situa el llançament per al proper mes i, encara que no ha fixat un dia concret, avança un pla de 120 dies per reforçar salvaguardes específiques per a nens i adolescents tant al producte com als processos interns.
La companyia indica que certes converses delicades es redirigiran a models de raonament capaços de seguir pautes de seguretat de manera més sistemàtica, amb l'objectiu de prioritzar respostes prudents i de suport quan es detectin temes de risc com a autolesions o idees suïcides.

El cas que ha encès les alarmes
L'anunci arriba després de la demanda dels pares de Adam Raine, un adolescent de 16 anys que es va treure la vida després de mesos dinteracció amb el chatbot. Segons l'escrit presentat, ChatGPT hauria normalitzat pensaments suïcides i desaconsellat buscar ajuda familiar, acusacions que la justícia haurà de dirimir.
En paral·lel, OpenAI va reconèixer que el seu assistent pot fallar a “situacions crítiques” i es va comprometre a canvis. La companyia sosté que aquestes mesures busquen reduir riscos sense atribuir oficialment la decisió a la demanda, que també cita l'ús de GPT-4o a les converses.
Pressió social i política sobre la IA i els menors
Al juliol, diversos senadors nord-americans van demanar a l'empresa explicacions sobre prevenció d'autolesions i suïcidi davant de respostes inadequades detectades en situacions límit. Per la seva banda, Common Sense Media defensa que els menors de 18 anys no haurien d'usar aplicacions conversacionals d'IA pels seus “riscos inacceptables”.
El moviment d'OpenAI s'alinea amb una tendència sectorial en què plataformes com Meta o YouTube han impulsat controls per a famílies. La discussió de fons gira al voltant de com equilibrar innovació, garanties i garanties per a usuaris joves.
Què passa dins de ChatGPT quan hi ha senyals de risc
OpenAI apunta a un enrutat dinàmic que deriva converses complexes cap a models més reflexius, amb directrius de seguretat més estrictes. La meta és reduir el biaix de complaença, elevar el llindar de prudència i prioritzar respostes de suport davant d'interaccions potencialment perjudicials.
Per fonamentar aquest enfocament, la signatura ha creat un Consell d'Experts en Benestar i IA i una Xarxa Global de Metges. Segons l'empresa, hi participen més de 250 facultatius a 60 països i ja s'han incorporat més de 90 aportacions sobre conducta del model a contextos de salut mental.
Què podran fer els pares, pas a pas
Les famílies trobaran un flux senzill: convidar el menor per correu, confirmar l'enllaç de comptes i definir quines funcions s'activen o no al perfil adolescent, amb especial atenció a memòria, historial i filtres de seguretat.
- Vincula el compte de l'adult amb el del menor mitjançant invitació.
- Configura límits: memòria, historial i funcions permeses per edat.
- Activa notificacions davant “angoixa aguda” i accés al botó d'emergència.
- Revisa periòdicament com respon el sistema i ajusta la configuració.
OpenAI avança que seguirà afinant aquestes eines, però encara no ha detallat tots els paràmetres de privadesa i visibilitat. La companyia recorda que el control parental és un suport i no substitueix la atenció professional ni l'acompanyament familiar continuat.
Amb aquest paquet, OpenAI intenta reforçar la seguretat de ChatGPT a l'entorn adolescent mitjançant comptes familiars, límits i alertes, un desplegament per fases i assessoria clínica externa; passos que busquen acotar riscos sense perdre de vista que la supervisió adulta i el criteri professional segueixen sent peces imprescindibles.
Sóc un apassionat de la tecnologia que ha convertit els seus interessos frikis en professió. Porto més de 10 anys de la meva vida utilitzant tecnologia d'avantguarda i traslladant tota mena de programes per pura curiositat. Ara he especialitzat en tecnologia d'ordinador i videojocs. Això és perquè des de fa més de 5 anys que treballo redactant per a diverses webs en matèria de tecnologia i videojocs, creant articles que busquen donar-te la informació que necessites amb un llenguatge comprensible per tothom.
Si tens qualsevol pregunta, els meus coneixements van des de tot allò relacionat amb el sistema operatiu Windows així com Android per a mòbils. I és que el meu compromís és amb tu, sempre estic disposat a dedicar-te uns minuts i ajudar-te a resoldre qualsevol dubte que tinguis a aquest món d'internet.
