- Länka familjekonton för att övervaka tonåringars användning av ChatGPT.
- Möjlighet att inaktivera minne och historik och hantera funktioner efter ålder.
- Automatiska varningar för indikatorer för "akut nödsituation" och nödknapp.
- Implementering med start nästa månad och 120-dagarsplan med resonemangsmodeller.

OpenAI har tillkännagivit ankomsten av en Föräldrakontroller i ChatGPT riktar sig till hem med tonåringar, en ny funktion som företaget använder för att stärka tryggheten och erbjuda familjer fler övervakningsverktyg utan att ge upp chatbotens användbarhet.
Beslutet kommer efter ett växande socialt och regulatoriskt tryck, inklusive Adam Raines familjerättsprocess i Kalifornien, vilket anklagar företaget för misslyckanden inom psykisk hälsa. OpenAI förväntar sig att det kommer att finnas automatiska varningar för tecken på "akut nöd" och en uppsättning funktioner för att hantera minderårigas upplevelse.
Vad ändras i ChatGPT för familjer?
Med de nya alternativen kommer föräldrar att kunna länka ditt konto till dina barns konton genom en e-postinbjudan, granska hur systemet reagerar och justera modellens beteende med regler utformade för tidig åldrar.
Bland kontrollerna kommer att finnas möjligheten att inaktivera minne och chatthistorik, samt begränsa funktioner i enlighet med den minderåriges mognadsnivå. OpenAI överväger också påminnelser under långa sessioner för att uppmuntra till hälsosamma pauser.
Dessutom kommer paketet att innehålla en nödknapp vilket kommer att underlätta kontakt med stödtjänster och psykiatriska yrkesverksamma, och möjligheten att blockera innehåll när risksignaler upptäcks i en konversation.
Säkerhetskalender och färdplan
OpenAI placerar lanseringen för nästa månad och även om den inte har fastställt ett specifikt datum, lägger den fram en 120-dagarsplan för att stärka specifika skyddsåtgärder för barn och tonåringar både i produkten och i interna processer.
Företaget anger att vissa känsliga samtal är kommer att omdirigera till resonemangsmodeller kunna följa säkerhetsriktlinjer mer systematiskt, med målet att prioritera försiktiga och stödjande åtgärder när de upptäcks riskfrågor såsom självskadebeteende eller självmordstankar.

Fallet som utlöste larmen
Beskedet kommer efter en stämningsansökan från föräldrarna till Adam Raine, en 16-årig tonåring som tog sitt eget liv efter månader av interaktion med chatboten. Enligt ansökan skulle ChatGPT ha normaliserade självmordstankar och det är inte lämpligt att söka hjälp från familjen, anklagelser som domstolarna måste ta ställning till.
Parallellt medgav OpenAI att dess assistent kan misslyckas med "kritiska situationer" och engagerad i förändringar. Företaget hävdar att dessa åtgärder syftar till att minska riskerna utan att officiellt tillskriva beslutet till stämningen, vilket också hänvisar till användningen av GPT-4o i samtalen.
Socialt och politiskt tryck på AI och minderåriga
I juli bad flera amerikanska senatorer företaget förklaringar om självskadebeteende och självmordsprevention som svar på olämpliga reaktioner som upptäcks i extrema situationer. Common Sense Media menar för sin del att enligt 18 år bör inte använda konversationsbaserade AI-applikationer på grund av deras "oacceptabla risker".
OpenAIs drag ligger i linje med en branschtrend där plattformar som Meta eller YouTube har drivit på för kontrollåtgärder för familjer. Den underliggande diskussionen kretsar kring hur man ska balansera innovation, garanti och garantier för unga användare.
Vad händer i ChatGPT när det finns risksignaler
OpenAI siktar på dynamisk routing som härleder komplexa samtal mot mer reflekterande modeller, med strängare säkerhetsriktlinjer. Målet är att minska självbelåtenhetsbias, höja tröskeln för försiktighet och prioritera supportsvar mot potentiellt skadliga interaktioner.
För att befästa detta tillvägagångssätt har företaget skapat en Expertrådet för välbefinnande och AI och ett globalt nätverk av läkare. Enligt företaget, mer än 250 läkare i 60 länder och mer än 90 bidrag om modellens beteende har redan införlivats psykiska hälsokontexter.
Vad föräldrar kan göra, steg för steg
Familjer kommer att hitta ett enkelt flöde: bjud in minderåriga via post, bekräfta länkningen av konton och definiera vilka funktioner som är aktiverade eller inte i ungdomsprofilen, med särskild uppmärksamhet på minne, historia och säkerhetsfilter.
- Länka den vuxnes konto till den minderåriges konto via inbjudan.
- Ställ in gränser: minne, historik och åldersgodkända funktioner.
- Aktivera aviseringar för "akut nöd" och åtkomst till nödknappen.
- Kontrollera regelbundet hur systemet reagerar och justera inställningarna.
OpenAI säger att de kommer att fortsätta att förfina dessa verktyg, men har ännu inte detaljerat alla sekretessparametrar och synlighet. Företaget påminner om att föräldrakontroll är ett stöd och inte ersätter professionell uppmärksamhet inte heller fortsatt familjestöd.
Med detta paket försöker OpenAI stärka säkerheten för ChatGPT i tonårsmiljön genom att familjekonton, gränser och aviseringar, en stegvis utrullning och extern klinisk rådgivning; åtgärder som syftar till att begränsa riskerna utan att glömma bort det faktum att vuxenövervakning och professionellt omdöme fortfarande krävs väsentliga bitar.
Jag är en teknikentusiast som har gjort sina "nördar"-intressen till ett yrke. Jag har tillbringat mer än 10 år av mitt liv med att använda den senaste tekniken och mixtrat med alla typer av program av ren nyfikenhet. Nu har jag specialiserat mig på datateknik och tv-spel. Detta beror på att jag i mer än 5 år har arbetat med att skriva för olika webbplatser om teknik och videospel, skapa artiklar som försöker ge dig den information du behöver på ett språk som är begripligt för alla.
Om du har några frågor sträcker sig min kunskap från allt som rör operativsystemet Windows samt Android för mobiltelefoner. Och mitt engagemang är för dig, jag är alltid villig att spendera några minuter och hjälpa dig att lösa alla frågor du kan ha i den här internetvärlden.
