- Google fjerner Gemma-modellen fra AI Studio og begrenser bruken til API-baserte utviklere.
- Senator Marsha Blackburn hevder at kunstig intelligens genererte falske anklager om seksuell trakassering
- Google påstår misbruk av et verktøy beregnet på utviklere og erkjenner utfordringen med hallusinasjoner.
- Saken vekker opplevd den politiske og juridiske debatten om skjevhet, ærekrenkelse og ansvar innen AI på nytt.
Googles beslutning om å trekk tilbake modellen din Gemma fra AI Studio-plattformen Det kommer etter en formell klage fra den amerikanske senatoren Marsha Blackburn, som hevder at AI-en genererte falske anklager mot hamEpisoden har gjenopplivet diskusjonen om begrensningene til generative systemer og teknologiselskapers ansvar når en modell produserer skadelig informasjon.
Gemma ble unnfanget som et sett med lette modeller rettet mot utviklere, ikke som en generell forbrukerassistent. Likevel, Brukere fikk tilgang til den via AI Studio y De brukte det til å stille faktaspørsmålsom ville ha ført til oppdiktede svar og ikke-eksisterende lenker.
Hva skjedde og hvordan oppsto kontroversen

I følge senatorens versjon, da han ble spurt «Har Marsha Blackburn blitt anklaget for voldtekt?" Gemma ville ha returnert en detaljert, men falsk beretning som plasserte hendelsene under en senatskampanje i 1987, og inkluderte påstått press for å skaffe narkotika og ikke-samtykkelige handlinger som aldri har eksistertParlamentsmedlemmet selv presiserte at valgkampen hennes var i 1998 og at hun aldri har mottatt en slik anklage.
AI-responsen ville også ha innlemmet lenker som førte til feilsider eller urelaterte nyhetsinnslag, presentert som om de var bevis. Dette punktet er spesielt sensitivt fordi gjør en «hallusinasjon» om til noe som oppfattes som verifiserbart, selv om det ikke er det.
Googles reaksjon og endringene i Gemmas tilgang

Etter kontroversen, Google forklarte at de hadde oppdaget forsøk på å bruke Gemma av ikke-utviklere i AI Studio.med faktiske undersøkelser. Derfor bestemte den seg for Fjern Gemma fra offentlig tilgang i AI Studio og hold den tilgjengelig utelukkende gjennom API-er for de som bygger applikasjoner.
Selskapet understreket at Gemma er en «utvikler-først»-modell og ikke en forbruker-chatbot som Gemini.Derfor er den ikke utformet som en faktasjekker, og den har heller ikke spesifikke verktøy for informasjonsinnhenting. Med selskapets ord, Hallusinasjoner er en utfordring for hele bransjen og de jobber aktivt med å redusere dem.
Denne endringen innebærer at Det vil ikke lenger være et chat-lignende grensesnitt. i AI Studio for Gemma; bruken er begrenset til utviklingsmiljøer og integrasjoner kontrollert av API-er, en kontekst der utvikleren påtar seg ytterligere sikkerhetstiltak og valideringer.
Juridisk dimensjon og politisk debatt om skjevhet og ærekrenkelse

Blackburn sendte et brev til Googles administrerende direktør Sundar Pichai, der han beskrev det som skjedde ikke som en harmløs feil, men som ærekrenkelse produsert av en AI-modellSenatoren ba om forklaringer på hvordan innholdet ble generert, hvilke tiltak som finnes for å minimere politiske eller ideologiske skjevheter, og hvilke tiltak som vil bli iverksatt for å forhindre gjentakelser, og satte også en frist for å motta svaret.
Under en høring i Senatets handelskomité tok kongresskvinnen også opp saken med Googles visepresident for offentlige saker og offentlig politikk, Markham Erickson, som Han erkjente at hallusinasjoner er et kjent problem, og bemerket at selskapet jobber med å redusere dem.Saken har forsterket fokuset på selskapers ansvar når modellene deres skader offentlige personers omdømme.
Kontroversen intensiverte seg med andre episoder sitert av konservative, som den aktivisten Robby StarbuckAt Han hevder å ha blitt falskt koblet av Gemma til alvorlige forbrytelser og ekstremisme. I denne sammenhengen, Debatten om mulige skjevheter blusser opp igjen i AI-systemer og behovet for sikkerhetsrammeverk, overvåking og klagemuligheter når skade oppstår.
Utover partiske standpunkter fremhever saken at modeller som ikke er utformet for offentlig interaksjon, kan være misforstått som generelle assistentervisker ut grensen mellom utviklingsprototyper og produkter for allmennheten, med åpenbare risikoer hvis det som genereres tas som verifisert informasjon.
Gemmas tilbaketrekning fra AI Studio og hennes begrænsning til API-merket et forsøk på å omdirigere bruken av modellen til feltet den ble unnfanget for, samtidig som det reiser spørsmål om standarder for sannferdighet, sikkerhetstiltak og ansvarlighet som bør styre når en AI påvirker omdømmet til virkelige mennesker, spesielt offentlige tjenestemenn.
Jeg er en teknologientusiast som har gjort sine "geek"-interesser til et yrke. Jeg har brukt mer enn 10 år av livet mitt på å bruke banebrytende teknologi og fikse med alle slags programmer av ren nysgjerrighet. Nå har jeg spesialisert meg på datateknologi og videospill. Dette er fordi jeg i mer enn 5 år har skrevet for forskjellige nettsteder om teknologi og videospill, og laget artikler som prøver å gi deg den informasjonen du trenger på et språk som er forståelig for alle.
Hvis du har spørsmål, spenner min kunnskap fra alt relatert til Windows-operativsystemet samt Android for mobiltelefoner. Og mitt engasjement er til deg, jeg er alltid villig til å bruke noen minutter og hjelpe deg med å løse eventuelle spørsmål du måtte ha i denne internettverdenen.