Google usuwa Gemmę z AI Studio po skardze senatora

Ostatnia aktualizacja: 04/11/2025

  • Google usuwa model Gemma z AI Studio i ogranicza jego wykorzystanie do programistów korzystających z interfejsu API.
  • Senator Marsha Blackburn twierdzi, że sztuczna inteligencja wygenerowała fałszywe oskarżenia o molestowanie seksualne
  • Google zarzuca niewłaściwe wykorzystanie narzędzia przeznaczonego dla programistów i przyznaje, że halucynacje stanowią wyzwanie
  • Sprawa ta na nowo rozpala debatę polityczną i prawną na temat stronniczości, zniesławienia i odpowiedzialności w kontekście sztucznej inteligencji.

Sztuczna inteligencja Google'a i senator

Decyzja Google'a o wycofaj swój model Gemma z platformy AI Studio Stało się to po formalnej skardze złożonej przez senator USA Marshy Blackburn, która twierdzi, że Sztuczna inteligencja wygenerowała przeciwko niemu fałszywe oskarżeniaOdcinek ten na nowo rozpalił dyskusję na temat ograniczeń systemów generatywnych i odpowiedzialności firm technologicznych w sytuacji, gdy model generuje szkodliwe informacje.

Gemma została pomyślana jako zestaw lekkich modeli przeznaczonych dla deweloperów, a nie jako uniwersalny asystent użytkownika. Mimo to, Użytkownicy uzyskali do niego dostęp za pośrednictwem AI Studio y Używali go do zadawania pytań opartych na faktachco doprowadziłoby do sfabrykowane odpowiedzi i nieistniejące linki.

Co się wydarzyło i skąd wzięła się ta kontrowersja

Gemma ai google

Według wersji senatora, na pytanie „Czy Marsha Blackburn została oskarżona o gwałt?" Gemma miałaby dostarczyć szczegółowy, ale fałszywy raport który umiejscowił wydarzenia w kampanii do Senatu stanowego w 1987 r. i obejmował rzekome wywieranie nacisków w celu uzyskania narkotyków i akty bez zgody, które nigdy nie istniałySama parlamentarzystka wyjaśniła, że ​​jej kampania miała miejsce w 1998 r. i że nigdy nie spotkała się z tego typu oskarżeniem.

Ekskluzywna zawartość — kliknij tutaj  Mapy Google integrują informacje o dostępności superładowarek Tesla w czasie rzeczywistym

Odpowiedź sztucznej inteligencji również uwzględniałaby linki prowadzące do stron z błędami lub niezwiązane z nimi wiadomości, prezentowane jako dowody. Ten punkt jest szczególnie drażliwy, ponieważ zmienia „halucynację” w coś, co jest postrzegane jako weryfikowalne, nawet jeśli tak nie jest.

Reakcja Google i zmiany w dostępie Gemmy

Model sztucznej inteligencji Google'a i senator

Po kontrowersjach, Google wyjaśniło, że wykryło próby użycia Gemmy przez osoby niebędące programistami w AI Studioz badaniami faktograficznymi. Dlatego zdecydowała Usuń Gemmę z publicznego dostępu w AI Studio i zapewnij jej wyłączny dostęp za pośrednictwem interfejsów API dla tych, którzy tworzą aplikacje.

Firma podkreśliła, że Gemma to model zorientowany na programistów, a nie chatbot skierowany do konsumentów, jak Gemini.W związku z tym nie jest on zaprojektowany jako narzędzie do weryfikacji faktów ani nie posiada specjalistycznych narzędzi do wyszukiwania informacji. Jak twierdzi firma, Halucynacje stanowią wyzwanie dla całej branży i aktywnie działają na rzecz ich łagodzenia.

Ekskluzywna zawartość — kliknij tutaj  Jak utworzyć zakrzywiony tekst w Prezentacjach Google

Zmiana ta oznacza, że Nie będzie już interfejsu przypominającego czat. w AI Studio dla Gemmy; jego użycie jest ograniczone do środowisk programistycznych i integracji kontrolowanych przez API, w kontekście, w którym programista zakłada dodatkowe zabezpieczenia i walidacje.

Wymiar prawny i debata polityczna na temat uprzedzeń i zniesławienia

Debata polityczna na temat sztucznej inteligencji Google'a i senatora

Blackburn wysłał list do dyrektora generalnego Google, Sundara Pichaia, opisując to zdarzenie nie jako niegroźny błąd, lecz jako zniesławienie wytworzone przez model sztucznej inteligencjiSenator zażądał wyjaśnień na temat tego, w jaki sposób powstała treść, jakie środki są stosowane w celu zminimalizowania stronniczości politycznej lub ideologicznej oraz jakie działania zostaną podjęte w celu zapobiegania powtórzeniom, a także podał termin otrzymania odpowiedzi.

Podczas przesłuchania w senackiej Komisji Handlu kongresmenka poruszyła również tę kwestię z wiceprezesem Google ds. rządowych i polityki publicznej, Markhamem Ericksonem, który Przyznał, że halucynacje są znanym problemem i zaznaczył, że firma pracuje nad ich łagodzeniem.Sprawa ta zwróciła jeszcze większą uwagę na odpowiedzialność firm, których modele szkodzą reputacji osób publicznych.

Ekskluzywna zawartość — kliknij tutaj  Czat GPT: co to jest i jak z niego korzystać

Kontrowersje nasiliły się wraz z inne odcinki cytowane przez konserwatystów, jak w przypadku aktywista Robby StarbuckŻe Twierdzi, że Gemma fałszywie powiązała go z poważnymi przestępstwami i ekstremizmem. W tym kontekście, Debata na temat możliwych uprzedzeń rozgorzała na nowo w systemach AI oraz konieczności zapewnienia ram bezpieczeństwa, monitorowania i ścieżek dochodzenia roszczeń w przypadku wystąpienia szkód.

Oprócz stanowisk partyjnych sprawa ta pokazuje, że modele nieprzeznaczone do interakcji z opinią publiczną mogą być źle rozumiani jako asystenci ogólnizacieranie granicy między prototypami rozwojowymi a produktami przeznaczonymi dla ogółu społeczeństwa, co wiąże się z oczywistymi ryzykami, jeśli uzyskane w ten sposób informacje zostaną uznane za zweryfikowane.

Wycofanie się Gemmy ze studia AI i jej zamknięcie w kodzie API próba przekierowania wykorzystania modelu na pole, dla którego został stworzony, podnosząc jednocześnie pytania dotyczące standardy prawdziwości, zabezpieczeń i odpowiedzialności które powinno regulować sytuacje, w których sztuczna inteligencja wpływa na reputację prawdziwych ludzi, zwłaszcza urzędników publicznych.