Kalifornien huet de Gesetz SB 243 gestëmmt, fir KI-Chatbots ze reguléieren a Mannerjäreger ze schützen.

Leschten Update: 15/10/2025

  • SB 243 verlaangt vu Chatbots, sech z'identifizéieren a periodesch Erënnerungen ze schécken, mat Notifikatiounen all dräi Stonnen fir Mannerjäreg.
  • Diskussiounen iwwer Sexualitéit a Selbstverletzung mat Mannerjäregen sinn limitéiert, an Krisenprotokoller sinn aktivéiert.
  • Plattforme mussen Zeeche vu Suizidgedanken dem staatleche Büro fir Suizidpräventioun mellen.
  • De Pak enthält aner kalifornesch KI-Reglementer iwwer Risiken, Deepfakes a Haftung.

Kalifornien KI Gesetzer

Kalifornien huet e wichtege Schrëtt an der Iwwerwaachung vun der kënschtlecher Intelligenz gemaach. mat enger Regel déi sech op sougenannt "Begleeder-Chatbots" konzentréiert, déi Frëndschaft oder Intimitéit simuléieren. Gouverneur Gavin Newsom huet SB 243 ënnerschriwwen, e Gesetz dat verlaangt, datt dës Tools sech als automatiséiert Systemer identifizéieren a spezifesch Sécherheetsmoossnamen huelen, wa se mat hinnen interagéieren kleng Benotzer.

D'Moossnam, déi vum Staatssenator Steve Padilla ënnerstëtzt gouf, konzentréiert sech manner op technesch Architektur a méi op ... emotional Interface tëscht Mënschen a MaschinnenDéi definitiv Versioun, déi no Drock vun der Industrie méi limitéiert gouf, hält wichteg Verpflichtungen bäi: Reegelméisseg Erënnerungen, datt Dir mat enger KI schwätzt, altersgerecht Inhaltsfilter a Reaktiounsprotokoller Zeeche vu Selbstverletzung oder Suizid.

Wat genau verlaangt SB 243?

KI-Gesetz a Kalifornien

De Kär vum Standard verlaangt vu Chatbots, datt se kloer a widderholl warnen, datt se ... AI SoftwareFir mannerjäreg Benotzer muss de System mindestens all dräi Stonnen eng Erënnerung uweisen, op eng siichtbar a verständlech Manéier, fir Duercherneen iwwer den net-mënschlechen Charakter vun der Interaktioun ze vermeiden.

Zousätzlech mussen d'Betreiber ëmsetzen Inhaltsfilter a AltersgrenzenExplizit Sexualitéit an all Interaktioun, déi Selbstverletzung normaliséiert oder encouragéiert, ginn aus Gespréicher mat Mannerjäregen ausgeschloss. Dës Barrièren ginn duerch Iwweisungen un Krisenhëllefen ergänzt, wa se festgestallt ginn. Risikoindikatoren.

Exklusiv Inhalt - Klickt hei  Beton mat KI kreéieren: Eng nei Approche fir eng méi nohalteg an resilient Infrastruktur

La D'Gesetz verlaangt, datt Plattforme Protokoller fir fréizäiteg Detektioun a Reaktioun opstellen., souwéi Rapporte vu Fäll vu Suizidgedanken, déi beim Büro fir Suizidpräventioun Vu KalifornienDëst zielt drop ab, d'Koordinatioun mat de Gesondheetsautoritéiten ze stäerken an Metriken iwwer den Impakt vun dësen Tools op d'mental Gesondheet anzebannen.

Fir dës Sécherheetsmoossnamen ze garantéieren, D'Entreprisen mussen raisonnabel Altersverifizéierungsmechanismen an hire Servicer, déi sech un d'Awunner vum Staat riichten, implementéieren.D'Ufuerderung gëllt fir sozial Netzwierker, Websäiten an Apps, déi begleedend Chatbots ubidden, dorënner Spillplattformen oder dezentraliséiert Optiounen, déi a Kalifornien operéieren.

Déi definitiv Versioun vum SB 243 huet Drëtt-Partei-Auditen an eng App fir all Benotzer (net nëmme Mannerjäreger) ewechgelooss, déi a fréiere Versioune virgesi waren. Trotz dëser Reduktioun huet den Newsom de Gesetzesprojet als ... verdeedegt. Eindämmungstamm géint vermeidbaren Schued, mat engem geplangten Akraafttrieden am Januar 2026.

E méi breet Pak vun AI-Gesetzer am Staat

Kalifornien SB 243

SB 243 kënnt niewent anere kierzlech gestëmmte Initiativen, wéi zum Beispill SB 53, deen grouss KI-Entwéckler verlaangt, hir KI-Strategien ëffentlech ze verëffentlechen. Sécherheet a RisikominderungD'Zil ass et, d'Transparenz vun fortgeschrattene Modeller ze verbesseren, déi scho grouss sozial Auswierkungen hunn.

Exklusiv Inhalt - Klickt hei  Wat sinn d'Clientservice Integratiounsoptioune verfügbar fir Alexa Benotzer?

Parallel goufen Moossname gefördert, fir ze verhënneren, datt d'Entreprisen sech der Verantwortung entzéien, andeems se behaapten, datt Technologie "handelt autonom"D'Strofe fir net-konsensuell sexuell Deepfakes goufen och verschäerft, wouduerch d'Geldstrofe däitlech eropgaange sinn, wa se mannerjäreg Affer betreffen.

De Pak enthält och Restriktiounen, fir ze verhënneren, datt Chatbots sech als Benotzer ausginn. Gesondheetsberuffler oder Autoritéitsfiguren, eng Taktik déi vulnérabel Benotzer täusche kann. Mat dësen Texter skizzéiert Sacramento e staatleche Kader, deen probéiert Innovatioun, Rechter an ... am Gläichgewiicht ze halen ëffentlech Sécherheet.

Ënnerstëtzung, Kritik a Zweiwel iwwer säin Ëmfang

Kalifornien reguléiert KI-Chatbots mam SB 243

De Standard gouf gelueft als banebriechend, awer gläichzäiteg kritiséiert well en net ganz erfollegräich ass. Organisatiounen ewéi z.B. Common Sense Media an den Tech Oversight Project huet seng Ënnerstëtzung zréckgezunn, nodeems se extern Auditen ofgeschaaft an hiren Ëmfang op Mannerjäreger limitéiert hunn, wat, si warnen, d'Gesetz zu enger inadequater Gest am Hibléck op déi aktuell Risiken kéint maachen.

Um aneren Extrem warnen Entwéckler an Experten, datt a disproportionéiert Verantwortung kéint zu "Virsiichtsblockaden" féieren: Filteren, déi sou streng sinn, datt se legitim Gespréicher iwwer mental Gesondheet oder Sexualerzéiung zum Schweigen bréngen, wouduerch Teenager, déi online Hëllef sichen, vun entscheedender Ënnerstëtzung beraubt ginn.

De politeschen an ekonomeschen Drock war enorm: Technologiegruppen a Koalitioune vun der Industrie hunn während der Sessioun Milliounen an d'Lobbyaarbecht investéiert, fir déi schwéierst Texter ze moderéieren.Gläichzäiteg hunn d'Staatsanwaltschaft an den FTC hunn eng Kontroll iwwer Chatbot-Praktiken ausgeléist, déi sech géint Mannerjäreger riichten, an engem Ëmfeld vun Zivilprozesser a Reklamatioune vu betraffene Familljen.

Exklusiv Inhalt - Klickt hei  Wéi funktionnéiert de Wombo AI?

Rezent Fäll a Prozesser géint Plattforme wéi Character.AI oder OpenAI hunn d'ëffentlech Debatt eskaléiertNom Virworf, Grouss Akteuren wéi Meta an OpenAI hunn Ännerungen ugekënnegt: Blockéierung vun onpassenden Gespréicher mat Teenager a Referenzen op spezialiséiert Ressourcen, plus nei Elterenkontrollen.

Ëmsetzungsproblemer a viraussiichtlech Auswierkungen

De Start stellt operationell Erausfuerderungen duer. Global Plattforme mussen genee bestëmmen, wien mannerjärege Resident a Kalifornien a Millioune vun deeglechen Interaktiounen iwwerwaachen, ouni d'Privatsphär ze verletzen, eppes wat technesch a juristesch komplex ass.

Eng aner Erausfuerderung wäert et sinn, den "Tripkeleffekt" a Richtung exzessiver Zensur ze vermeiden: wa Firmen Angscht virun Sanktiounen hunn, kéinte se sech zréckzéien. nëtzlech Inhalt emotionalt Wuelbefannen aus purer Vorsicht. D'Gläichgewiicht tëscht Schutz an Zougang zu zouverléissege Informatiounen ze fannen, wäert de Schlëssel sinn fir den Erfolleg vun der Reguléierung ze bewäerten.

D'Fro vum nationalen Impakt bleift och: wéi et mat anere fréiere kalifornesche Reglementer de Fall war, kéinten hir Ufuerderungen de facto zu ... ginn. Standard fir Operateuren an den USA, och ier solid Beweiser fir d'Effizienz verfügbar waren.

Och wann den endgültegen Text méi enk ass wéi déi ursprénglech Virschléi, SB 243 setzt ongehéiert Reegele fir "Companion Chatbots" fest.kloer Warnungen, Altersfilter a Krisenprotokoller mat institutioneller Berichterstattung. Wann Dir sidd minimal Barrièren Wa si et fäerdeg bréngen, Mannerjäreger ze schützen, ouni legitim Ënnerstëtzung ze ënnerdrécken, huet Kalifornien e Mëttelwee fräigemaach, deem aner Staaten och kënne verfollegen.

ChatGPT Elterenkontroll
Verbonnen Artikel:
OpenAI wäert Elterekontrollen zu ChatGPT mat Familljekonten, Risikowarnungen a Benotzungslimite bäifügen.