La California approva la legge SB 243 per regolamentare i chatbot basati sull'intelligenza artificiale e proteggere i minori

Ultimo aggiornamento: 15/10/2025

  • La legge SB 243 richiede ai chatbot di identificarsi e di inviare promemoria periodici, con notifiche ogni tre ore per i minori.
  • Sono vietate le discussioni sulla sessualità e sull'autolesionismo con i minori e vengono attivati ​​protocolli di crisi.
  • Le piattaforme devono segnalare i segnali di ideazione suicidaria all'Ufficio statale per la prevenzione del suicidio.
  • Il pacchetto include altre normative californiane sull'intelligenza artificiale in materia di rischi, deepfake e responsabilità.

Leggi sull'intelligenza artificiale in California

La California ha compiuto un passo decisivo nella supervisione dell'intelligenza artificiale. con una regola che si concentra sui cosiddetti "chatbot di compagnia", quelli che simulano amicizia o intimità. Il governatore Gavin Newsom ha firmato la SB 243, una legge che richiede a questi strumenti di identificarsi come sistemi automatizzati e di adottare specifiche misure di sicurezza quando interagiscono con utenti minorenni.

La misura, sponsorizzata dal senatore dello Stato Steve Padilla, si concentra meno sull'architettura tecnica e più su interfaccia emotiva tra persone e macchineLa versione finale, resa più limitata a seguito delle pressioni dell'industria, mantiene gli obblighi principali: Promemoria regolari che stai parlando con un'intelligenza artificiale, filtri di contenuto adatti all'età e protocolli di risposta segni di autolesionismo o suicidio.

Cosa prevede esattamente la SB 243?

Legge sull'intelligenza artificiale in California

Il nucleo dello standard richiede che i chatbot avvisino in modo chiaro e ripetuto che sono software di intelligenza artificialePer gli utenti minorenni, il sistema deve visualizzare un promemoria almeno ogni tre ore, in modo visibile e comprensibile, per evitare confusione sulla natura non umana dell'interazione.

Inoltre, gli operatori devono implementare filtri di contenuto e limiti di età: La sessualità esplicita e qualsiasi interazione che normalizzi o incoraggi l'autolesionismo sono escluse dalle conversazioni con i minori. Queste barriere sono integrate dall'invio ai servizi di crisi quando vengono rilevate. indicatori di rischio.

Contenuti esclusivi: clicca qui  Cosa sono l'Intelligenza Artificiale (AI) e il Machine Learning?

La La legge impone alle piattaforme di stabilire protocolli di rilevamento e risposta tempestivi., nonché segnalazioni di casi di ideazione suicidaria identificati presso Ufficio per la prevenzione del suicidio Della CaliforniaL'obiettivo è rafforzare il coordinamento con le autorità sanitarie e incorporare parametri sull'impatto di questi strumenti sulla salute mentale.

Per sostenere queste garanzie, Le aziende devono implementare meccanismi ragionevoli di verifica dell'età nei loro servizi rivolti ai residenti dello Stato.Il requisito si applica ai social network, ai siti web e alle app che offrono chatbot di accompagnamento, comprese le piattaforme di gioco o le opzioni decentralizzate che operano in California.

La versione finale della SB 243 escludeva i controlli di terze parti e un'app per tutti gli utenti (non solo i minorenni), previsti nelle bozze precedenti. Nonostante questo taglio, Newsom ha difeso il disegno di legge come... diga di contenimento contro i danni prevenibili, con entrata in vigore prevista per gennaio 2026.

Un pacchetto più ampio di leggi sull'intelligenza artificiale nello stato

California SB243

La SB 243 si affianca ad altre iniziative approvate di recente, come la SB 53, che obbliga i grandi sviluppatori di intelligenza artificiale a rendere pubbliche le proprie strategie in materia di intelligenza artificiale. sicurezza e mitigazione del rischioL'obiettivo è migliorare la trasparenza dei modelli avanzati che hanno già un impatto sociale su larga scala.

Contenuti esclusivi: clicca qui  Google potenzia lo sviluppo con Gemini CLI: lo strumento di intelligenza artificiale open source per il terminale

Parallelamente, sono state promosse misure per impedire alle aziende di eludere le proprie responsabilità sostenendo che la tecnologia “agisce in modo autonomo”Sono state inasprite anche le sanzioni per i deepfake a sfondo sessuale non consensuale, aumentando significativamente le multe quando coinvolgono vittime minorenni.

Il pacchetto include anche delle restrizioni per impedire ai chatbot di impersonare professionisti sanitari o figure autoritarie, una tattica che può trarre in inganno gli utenti vulnerabili. Con questi articoli, Sacramento delinea un quadro statale che tenta di bilanciare innovazione, diritti e sicurezza pubblica.

Sostegno, critiche e dubbi sulla sua portata

La California regolamenta i chatbot AI con la SB 243

Lo standard è stato elogiato per essere innovativo, ma allo stesso tempo criticato per essere carente. Organizzazioni come Common Sense Media e il Tech Oversight Project hanno ritirato il loro sostegno dopo aver eliminato gli audit esterni e aver limitato il loro ambito di applicazione ai minori, il che, avvertono, potrebbe rendere la legge un gesto insufficiente di fronte ai rischi attuali.

All'altro estremo, gli sviluppatori e gli esperti avvertono che un responsabilità sproporzionata potrebbe portare a “blocchi precauzionali”: filtri così rigidi da mettere a tacere conversazioni legittime sulla salute mentale o sull’educazione sessuale, privando gli adolescenti che cercano aiuto online di un supporto fondamentale.

La pressione politica ed economica è stata intensa: Durante la sessione, gruppi tecnologici e coalizioni industriali hanno investito milioni di dollari in attività di lobbying per moderare i testi più difficili.Allo stesso tempo, la Procura della Repubblica e l' FTC hanno innescato un controllo sulle pratiche dei chatbot che prendono di mira i minori, in un ambiente di cause civili e lamentele delle famiglie colpite.

Contenuti esclusivi: clicca qui  Come annullare l'abbonamento a ChatGPT Plus

Casi e cause legali recenti contro Piattaforme come Character.AI o OpenAI hanno intensificato il dibattito pubblicoDopo le accuse, I principali attori come Meta e OpenAI hanno annunciato cambiamenti: Blocco delle conversazioni inappropriate con gli adolescenti e riferimenti a risorse specializzate, oltre a nuovi controlli parentali.

Sfide di implementazione ed effetti prevedibili

Il lancio pone delle sfide operative. Le piattaforme globali dovranno determinare con precisione chi è minorenne residente in California e monitorare milioni di interazioni quotidiane senza invadere la privacy, cosa tecnicamente e legalmente complessa.

Un'altra sfida sarà quella di evitare l'"effetto goccia" verso una censura eccessiva: se le aziende temono sanzioni, potrebbero ritirarsi contenuti utili benessere emotivo per pura prudenza. Trovare l'equilibrio tra protezione e accesso a informazioni affidabili sarà fondamentale per valutare il successo della regolamentazione.

Rimane anche la questione dell’impatto nazionale: come è successo con altre prime normative della California, i suoi requisiti potrebbero diventare di fatto standard per gli operatori negli Stati Uniti, anche prima che fossero disponibili solide prove di efficacia.

Sebbene il testo finale sia più ristretto delle proposte iniziali, il La legge SB 243 stabilisce regole senza precedenti per i "chatbot di accompagnamento": avvisi chiari, filtri per età e protocolli di crisi con reporting istituzionale. Se sei barriere minime Se riusciranno a proteggere i minori senza soffocare i legittimi sostegni, la California avrà tracciato una via di mezzo che altri stati potranno seguire.

Controllo genitori ChatGPT
Articolo correlato:
OpenAI aggiungerà il controllo parentale a ChatGPT con account famiglia, avvisi di rischio e limiti di utilizzo.