- Google fjerner Gemma-modellen fra AI Studio og begrænser dens brug til API-baserede udviklere.
- Senator Marsha Blackburn hævder, at kunstig intelligens genererede falske beskyldninger om seksuelt misbrug.
- Google påstår misbrug af et værktøj beregnet til udviklere og anerkender udfordringen med hallucinationer
- Sagen genopliver den politiske og juridiske debat om bias, ærekrænkelse og ansvar inden for kunstig intelligens.
Googles beslutning om at træk din model tilbage Gemma fra AI Studio-platformen Det kommer efter en formel klage fra den amerikanske senator Marsha Blackburn, der hævder, at AI'en fremsatte falske anklager mod hamEpisoden har genoplivet diskussionen om begrænsningerne ved generative systemer og teknologivirksomheders ansvar, når en model producerer skadelig information.
Gemma blev udtænkt som et sæt letvægtsmodeller rettet mod udviklere, ikke som en generel forbrugerassistent. Alligevel, Brugere tilgik det via AI Studio y De brugte det til at stille faktuelle spørgsmålhvilket ville have ført til opdigtede svar og ikke-eksisterende links.
Hvad skete der, og hvordan opstod kontroversen
Ifølge senatorens version, da han blev spurgt “Er Marsha Blackburn blevet anklaget for voldtægt?", Gemma ville have returneret en detaljeret, men falsk beretning som placerede begivenhederne under en senatskampagne i 1987 og omfattede påstået pres for at få fat i narkotika og ikke-samtykkelige handlinger, der aldrig har eksisteretParlamentsmedlemmet præciserede selv, at hendes kampagne var i 1998, og at hun aldrig har modtaget en sådan beskyldning.
AI-responsen ville også have inkorporeret links, der førte til fejlsider eller irrelevante nyhedsindslag, præsenteret som om de var beviser. Dette punkt er særligt følsomt fordi forvandler en 'hallucination' til noget, der opfattes som verificerbart, selvom det ikke er det.
Googles reaktion og ændringerne i Gemmas adgang

Efter kontroversen, Google forklarede, at de havde opdaget forsøg på at bruge Gemma af ikke-udviklere i AI Studio.med faktuelle undersøgelser. Derfor besluttede den Fjern Gemma fra offentlig adgang i AI Studio og hold den tilgængelig udelukkende via API'er for dem, der bygger applikationer.
Virksomheden understregede, at Gemma er en 'udvikler-først'-model og ikke en forbruger-chatbot som Gemini.Derfor er den ikke designet som en faktatjekker, og den har heller ikke specifikke informationsindhentningsværktøjer. Med virksomhedens ord, Hallucinationer er en udfordring for hele branchen og de arbejder aktivt på at afbøde dem.
Denne ændring indebærer, at Der vil ikke længere være en chat-lignende brugerflade. i AI Studio til Gemma; dens brug er begrænset til udviklingsmiljøer og integrationer, der styres af API'er, en kontekst, hvor udvikleren påtager sig yderligere sikkerhedsforanstaltninger og valideringer.
Den juridiske dimension og den politiske debat om bias og ærekrænkelse

Blackburn sendte et brev til Googles administrerende direktør, Sundar Pichai, hvori han beskrev det skete, ikke som en harmløs fejltagelse, men som ærekrænkelse produceret af en AI-modelSenatoren anmodede om forklaringer på, hvordan indholdet blev genereret, hvilke foranstaltninger der findes for at minimere politiske eller ideologiske bias, og hvilke handlinger der vil blive taget for at forhindre gentagelser, og satte også en frist for modtagelse af svaret.
Under en høring i Senatets handelsudvalg rejste kongreskvinden også spørgsmålet med Googles vicepræsident for offentlige anliggender og offentlig politik, Markham Erickson, som Han anerkendte, at hallucinationer er et kendt problem, og bemærkede, at virksomheden arbejder på at afbøde dem.Sagen har øget fokus på virksomheders ansvar, når deres modeller skader offentlige personers omdømme.
Kontroversen intensiveredes med andre episoder citeret af konservative, som den af aktivisten Robby StarbuckDet Han hævder at være blevet falsk forbundet af Gemma med alvorlige forbrydelser og ekstremisme. I denne sammenhæng, Debatten om mulige bias blusser op igen i AI-systemer og behovet for sikkerhedsrammer, overvågning og klagemuligheder, når der opstår skade.
Ud over partipolitiske holdninger fremhæver sagen, at modeller, der ikke er designet til offentlig interaktion, kan være misforstået som generelle assistenterudvisker grænsen mellem udviklingsprototyper og produkter til den brede offentlighed, med åbenlyse risici, hvis det genererede opfattes som verificeret information.
Gemmas tilbagetrækning fra AI Studio og hendes begrænsning til API-mærket et forsøg på at omdirigere brugen af modellen til det felt, den blev udtænkt til, samtidig med at det rejser spørgsmål om standarder for sandfærdighed, sikkerhedsforanstaltninger og ansvarlighed der bør være gældende for, hvornår en AI påvirker rigtige menneskers, især embedsmænds, omdømme.
Jeg er en teknologientusiast, der har vendt sine "nørde" interesser til et erhverv. Jeg har brugt mere end 10 år af mit liv på at bruge avanceret teknologi og pille ved alle slags programmer af ren nysgerrighed. Nu har jeg specialiseret mig i computerteknologi og videospil. Dette skyldes, at jeg i mere end 5 år har skrevet til forskellige hjemmesider om teknologi og videospil, og lavet artikler, der søger at give dig den information, du har brug for, på et sprog, der er forståeligt for alle.
Har du spørgsmål, så spænder min viden fra alt relateret til Windows styresystemet samt Android til mobiltelefoner. Og mit engagement er over for dig, jeg er altid villig til at bruge et par minutter og hjælpe dig med at løse eventuelle spørgsmål, du måtte have i denne internetverden.