Kalifornia uchwala ustawę SB 243 regulującą chatboty oparte na sztucznej inteligencji i chroniącą nieletnich

Ostatnia aktualizacja: 20.09.2023

  • Ustawa SB 243 nakłada na chatboty obowiązek identyfikowania się i wysyłania okresowych przypomnień, a w przypadku osób nieletnich powiadomienia mają być wysyłane co trzy godziny.
  • Ogranicza się rozmowy z nieletnimi na temat seksualności i samookaleczenia. Wdrażane są protokoły kryzysowe.
  • Platformy mają obowiązek zgłaszania oznak myśli samobójczych do stanowego Biura Zapobiegania Samobójstwom.
  • Pakiet obejmuje również inne kalifornijskie regulacje dotyczące sztucznej inteligencji, ryzyka, deepfake'ów i odpowiedzialności.

Prawo Kalifornii dotyczące sztucznej inteligencji

Kalifornia podjęła zdecydowany krok w kierunku nadzorowania sztucznej inteligencji. z zasadą skupiającą się na tzw. „towarzyszących chatbotach”, czyli tych, które symulują przyjaźń lub intymność. Gubernator Gavin Newsom podpisał ustawę SB 243prawo, które wymaga, aby te narzędzia identyfikowały się jako systemy automatyczne i stosowały określone zabezpieczenia podczas interakcji z małoletni użytkownicy.

Środek ten, którego sponsorem jest senator stanowy Steve Padilla, koncentruje się mniej na architekturze technicznej, a bardziej na interfejs emocjonalny między ludźmi a maszynamiWersja ostateczna, która została bardziej ograniczona ze względu na presję ze strony przemysłu, zachowuje kluczowe obowiązki: Regularne przypomnienia o tym, że rozmawiasz ze sztuczną inteligencją, filtry treści dostosowane do wieku i protokoły odpowiedzi oznaki samookaleczenia lub samobójstwa.

Czego dokładnie wymaga ustawa SB 243?

Prawo dotyczące sztucznej inteligencji w Kalifornii

Podstawą standardu jest wymóg, aby chatboty wyraźnie i wielokrotnie ostrzegały, że są Oprogramowanie AIW przypadku użytkowników niepełnoletnich system musi wyświetlać przypomnienie co najmniej co trzy godziny, w sposób widoczny i zrozumiały, aby uniknąć nieporozumień co do nieludzkiego charakteru interakcji.

Ponadto operatorzy muszą wdrożyć filtry treści i ograniczenia wiekowe: Jawna seksualność i wszelkie interakcje, które normalizują lub zachęcają do samookaleczenia, są wykluczane z rozmów z nieletnimi. Bariery te są uzupełniane skierowaniami do służb kryzysowych w przypadku ich wykrycia. wskaźniki ryzyka.

Ekskluzywna zawartość — kliknij tutaj  Meta stoi w obliczu pozwu za rzekome pobieranie treści dla dorosłych w celu trenowania swojej sztucznej inteligencji

La Prawo wymaga, aby platformy ustanowiły protokoły wczesnego wykrywania i reagowania., a także doniesienia o przypadkach myśli samobójczych zidentyfikowanych w Biuro Zapobiegania Samobójstwom KaliforniiCelem jest wzmocnienie współpracy z organami ochrony zdrowia i uwzględnienie wskaźników wpływu tych narzędzi na zdrowie psychiczne.

Aby utrzymać te zabezpieczenia, Firmy muszą wdrożyć rozsądne mechanizmy weryfikacji wieku w swoich usługach skierowanych do mieszkańców państwa.Wymagania te dotyczą sieci społecznościowych, stron internetowych i aplikacji oferujących towarzyszące im chatboty, w tym platform do gier lub zdecentralizowanych opcji działających w Kalifornii.

Ostateczna wersja ustawy SB 243 pominęła audyty przeprowadzane przez podmioty zewnętrzne oraz aplikację dla wszystkich użytkowników (nie tylko nieletnich), które były rozważane we wcześniejszych projektach. Pomimo tego cięcia, Newsom bronił projektu jako tama zabezpieczająca przed szkodami, którym można zapobiec; wejście w życie planowane jest na styczeń 2026 r.

Szerszy pakiet przepisów dotyczących sztucznej inteligencji w stanie

Kalifornia SB 243

Ustawa SB 243 idzie w parze z innymi niedawno uchwalonymi inicjatywami, takimi jak SB 53, która wymaga od dużych producentów sztucznej inteligencji publicznego ujawniania swoich strategii w zakresie AI. bezpieczeństwo i ograniczanie ryzykaCelem jest poprawa przejrzystości zaawansowanych modeli, które już wywierają wpływ społeczny na dużą skalę.

Ekskluzywna zawartość — kliknij tutaj  Oto jak możesz tworzyć filmy za pomocą Perplexity na Twitterze (teraz X) o długości do 8 sekund i z dźwiękiem

Równocześnie promowano środki mające na celu uniemożliwienie firmom uchylania się od odpowiedzialności poprzez twierdzenie, że technologia „działa autonomicznie”Zaostrzono również kary za niechciane deepfake'i o charakterze seksualnym, znacznie zwiększając grzywny, gdy dotyczą one małoletnich ofiar.

Pakiet obejmuje również ograniczenia zapobiegające podszywaniu się chatbotów pracownicy służby zdrowia lub autorytetów, co jest taktyką, która może wprowadzić w błąd podatnych użytkowników. W tych artykułach Sacramento przedstawia ramy państwowe, które starają się zrównoważyć innowacyjność, prawa i bezpieczeństwo publiczne.

Wsparcie, krytyka i wątpliwości co do zakresu

Kalifornia reguluje chatboty oparte na sztucznej inteligencji za pomocą ustawy SB 243

Standard ten spotkał się z uznaniem za przełomowość, ale jednocześnie krytyką za jego niespełnienie. Organizacje takie jak Common Sense Media a Tech Oversight Project wycofał swoje poparcie po wyeliminowaniu zewnętrznych audytów i ograniczeniu ich zakresu do nieletnich, co – jak ostrzegają – może sprawić, że prawo okaże się niewystarczające w obliczu obecnych zagrożeń.

Z drugiej strony deweloperzy i eksperci ostrzegają, że nieproporcjonalna odpowiedzialność może prowadzić do „blokad zapobiegawczych”: filtrów tak rygorystycznych, że uniemożliwiają prowadzenie uzasadnionych rozmów na temat zdrowia psychicznego lub edukacji seksualnej, pozbawiając tym samym nastolatków szukających pomocy online niezbędnego wsparcia.

Presja polityczna i ekonomiczna była ogromna: Grupy technologiczne i koalicje branżowe wydały miliony dolarów w trakcie sesji na lobbing mający na celu złagodzenie najtrudniejszych tekstów.Jednocześnie prokuratura i FTC wywołały kontrolę nad praktykami chatbotów skierowanymi do nieletnich w środowisku pozwy cywilne i skargi od dotkniętych rodzin.

Ekskluzywna zawartość — kliknij tutaj  Płatny urlop z powodu śmierci zwierzęcia domowego: Tak rozwija się debata związkowa w Hiszpanii.

Ostatnie sprawy i pozwy przeciwko platformy takie jak Character.AI czy OpenAI zaostrzyły debatę publiczną. Po oskarżeniach, Duzi gracze, tacy jak Meta i OpenAI, ogłosili zmiany: Blokowanie nieodpowiednich rozmów z nastolatkami i odsyłanie do specjalistycznych źródeł, a także nowe mechanizmy kontroli rodzicielskiej.

Wyzwania wdrożeniowe i przewidywalne skutki

Wdrożenie stwarza wyzwania operacyjne. Platformy globalne będą musiały dokładnie określić, kto jest małoletni mieszkaniec Kalifornii i monitorować miliony codziennych interakcji, nie naruszając prywatności, co jest skomplikowane pod względem technicznym i prawnym.

Kolejnym wyzwaniem będzie uniknięcie „efektu przesączania” w kierunku nadmiernej cenzury: jeśli firmy obawiają się sankcji, mogą się wycofać przydatne treści dobrostan emocjonalny z czystej roztropności. Znalezienie równowagi między ochroną a dostępem do rzetelnych informacji będzie kluczowe dla oceny skuteczności regulacji.

Pozostaje również kwestia wpływu na cały kraj: podobnie jak miało to miejsce w przypadku innych wczesnych przepisów kalifornijskich, jego wymagania mogą stać się de facto standard dla operatorów w całych Stanach Zjednoczonych, jeszcze zanim pojawiły się solidne dowody na skuteczność.

Chociaż ostateczny tekst jest węższy niż propozycje początkowe, Ustawa SB 243 ustanawia bezprecedensowe zasady dla „towarzyszących chatbotów”: jasne ostrzeżenia, filtry wiekowe i protokoły kryzysowe z raportowaniem instytucjonalnym. Jeśli jesteś minimalne bariery Jeśli uda im się ochronić nieletnich, nie ograniczając jednocześnie ich legalnego wsparcia, Kalifornia wytyczy drogę środka, którą inne stany będą mogły podążyć.

Kontrola rodzicielska ChatGPT
Powiązany artykuł:
OpenAI doda do ChatGPT funkcje kontroli rodzicielskiej, takie jak konta rodzinne, ostrzeżenia o ryzyku i limity użytkowania.