- Google usuwa model Gemma z AI Studio i ogranicza jego wykorzystanie do programistów korzystających z interfejsu API.
- Senator Marsha Blackburn twierdzi, że sztuczna inteligencja wygenerowała fałszywe oskarżenia o molestowanie seksualne
- Google zarzuca niewłaściwe wykorzystanie narzędzia przeznaczonego dla programistów i przyznaje, że halucynacje stanowią wyzwanie
- Sprawa ta na nowo rozpala debatę polityczną i prawną na temat stronniczości, zniesławienia i odpowiedzialności w kontekście sztucznej inteligencji.
Decyzja Google'a o wycofaj swój model Gemma z platformy AI Studio Stało się to po formalnej skardze złożonej przez senator USA Marshy Blackburn, która twierdzi, że Sztuczna inteligencja wygenerowała przeciwko niemu fałszywe oskarżeniaOdcinek ten na nowo rozpalił dyskusję na temat ograniczeń systemów generatywnych i odpowiedzialności firm technologicznych w sytuacji, gdy model generuje szkodliwe informacje.
Gemma została pomyślana jako zestaw lekkich modeli przeznaczonych dla deweloperów, a nie jako uniwersalny asystent użytkownika. Mimo to, Użytkownicy uzyskali do niego dostęp za pośrednictwem AI Studio y Używali go do zadawania pytań opartych na faktachco doprowadziłoby do sfabrykowane odpowiedzi i nieistniejące linki.
Co się wydarzyło i skąd wzięła się ta kontrowersja

Według wersji senatora, na pytanie „Czy Marsha Blackburn została oskarżona o gwałt?" Gemma miałaby dostarczyć szczegółowy, ale fałszywy raport który umiejscowił wydarzenia w kampanii do Senatu stanowego w 1987 r. i obejmował rzekome wywieranie nacisków w celu uzyskania narkotyków i akty bez zgody, które nigdy nie istniałySama parlamentarzystka wyjaśniła, że jej kampania miała miejsce w 1998 r. i że nigdy nie spotkała się z tego typu oskarżeniem.
Odpowiedź sztucznej inteligencji również uwzględniałaby linki prowadzące do stron z błędami lub niezwiązane z nimi wiadomości, prezentowane jako dowody. Ten punkt jest szczególnie drażliwy, ponieważ zmienia „halucynację” w coś, co jest postrzegane jako weryfikowalne, nawet jeśli tak nie jest.
Reakcja Google i zmiany w dostępie Gemmy

Po kontrowersjach, Google wyjaśniło, że wykryło próby użycia Gemmy przez osoby niebędące programistami w AI Studioz badaniami faktograficznymi. Dlatego zdecydowała Usuń Gemmę z publicznego dostępu w AI Studio i zapewnij jej wyłączny dostęp za pośrednictwem interfejsów API dla tych, którzy tworzą aplikacje.
Firma podkreśliła, że Gemma to model zorientowany na programistów, a nie chatbot skierowany do konsumentów, jak Gemini.W związku z tym nie jest on zaprojektowany jako narzędzie do weryfikacji faktów ani nie posiada specjalistycznych narzędzi do wyszukiwania informacji. Jak twierdzi firma, Halucynacje stanowią wyzwanie dla całej branży i aktywnie działają na rzecz ich łagodzenia.
Zmiana ta oznacza, że Nie będzie już interfejsu przypominającego czat. w AI Studio dla Gemmy; jego użycie jest ograniczone do środowisk programistycznych i integracji kontrolowanych przez API, w kontekście, w którym programista zakłada dodatkowe zabezpieczenia i walidacje.
Wymiar prawny i debata polityczna na temat uprzedzeń i zniesławienia

Blackburn wysłał list do dyrektora generalnego Google, Sundara Pichaia, opisując to zdarzenie nie jako niegroźny błąd, lecz jako zniesławienie wytworzone przez model sztucznej inteligencjiSenator zażądał wyjaśnień na temat tego, w jaki sposób powstała treść, jakie środki są stosowane w celu zminimalizowania stronniczości politycznej lub ideologicznej oraz jakie działania zostaną podjęte w celu zapobiegania powtórzeniom, a także podał termin otrzymania odpowiedzi.
Podczas przesłuchania w senackiej Komisji Handlu kongresmenka poruszyła również tę kwestię z wiceprezesem Google ds. rządowych i polityki publicznej, Markhamem Ericksonem, który Przyznał, że halucynacje są znanym problemem i zaznaczył, że firma pracuje nad ich łagodzeniem.Sprawa ta zwróciła jeszcze większą uwagę na odpowiedzialność firm, których modele szkodzą reputacji osób publicznych.
Kontrowersje nasiliły się wraz z inne odcinki cytowane przez konserwatystów, jak w przypadku aktywista Robby StarbuckŻe Twierdzi, że Gemma fałszywie powiązała go z poważnymi przestępstwami i ekstremizmem. W tym kontekście, Debata na temat możliwych uprzedzeń rozgorzała na nowo w systemach AI oraz konieczności zapewnienia ram bezpieczeństwa, monitorowania i ścieżek dochodzenia roszczeń w przypadku wystąpienia szkód.
Oprócz stanowisk partyjnych sprawa ta pokazuje, że modele nieprzeznaczone do interakcji z opinią publiczną mogą być źle rozumiani jako asystenci ogólnizacieranie granicy między prototypami rozwojowymi a produktami przeznaczonymi dla ogółu społeczeństwa, co wiąże się z oczywistymi ryzykami, jeśli uzyskane w ten sposób informacje zostaną uznane za zweryfikowane.
Wycofanie się Gemmy ze studia AI i jej zamknięcie w kodzie API próba przekierowania wykorzystania modelu na pole, dla którego został stworzony, podnosząc jednocześnie pytania dotyczące standardy prawdziwości, zabezpieczeń i odpowiedzialności które powinno regulować sytuacje, w których sztuczna inteligencja wpływa na reputację prawdziwych ludzi, zwłaszcza urzędników publicznych.
Jestem entuzjastą technologii, który swoje „geekowskie” zainteresowania przekształcił w zawód. Spędziłem ponad 10 lat mojego życia, korzystając z najnowocześniejszych technologii i majsterkując przy wszelkiego rodzaju programach z czystej ciekawości. Teraz specjalizuję się w technologii komputerowej i grach wideo. Dzieje się tak dlatego, że od ponad 5 lat piszę dla różnych serwisów poświęconych technologii i grom wideo, tworząc artykuły, których celem jest dostarczenie potrzebnych informacji w języku zrozumiałym dla każdego.
Jeśli masz jakieś pytania, moja wiedza obejmuje wszystko, co jest związane z systemem operacyjnym Windows, a także Androidem dla telefonów komórkowych. Moje zaangażowanie jest wobec Ciebie. Zawsze jestem gotowy poświęcić kilka minut i pomóc Ci rozwiązać wszelkie pytania, jakie możesz mieć w tym internetowym świecie.