- Google verwyder die Gemma-model uit AI Studio en beperk die gebruik daarvan tot API-gebaseerde ontwikkelaars.
- Senator Marsha Blackburn beweer dat KI valse beskuldigings van seksuele wangedrag gegenereer het.
- Google beweer misbruik van 'n instrument wat vir ontwikkelaars bedoel is en erken die uitdaging van hallusinasies.
- Die saak laat die politieke en regsdebat oor vooroordeel, laster en aanspreeklikheid in KI weer aan die brand steek.
Google se besluit om onttrek jou model Gemma van die KI Studio-platform Dit kom na 'n formele klag van die Amerikaanse senator Marsha Blackburn, wat beweer dat Die KI het valse beskuldigings teen hom gegenereerDie episode het die bespreking oor die beperkings van generatiewe stelsels en die verantwoordelikheid van tegnologiemaatskappye wanneer 'n model skadelike inligting produseer, weer aangewakker.
Gemma is bedink as 'n stel liggewigmodelle wat op ontwikkelaars gemik is, nie as 'n algemene verbruikersassistent nie. Tog, Gebruikers het dit via AI Studio verkry y Hulle het dit gebruik om feitelike vrae te vrawat sou gelei het tot gefabriseerde antwoorde en nie-bestaande skakels.
Wat het gebeur en hoe het die kontroversie ontstaan
Volgens die senator se weergawe, toe gevra “Is Marsha Blackburn van verkragting beskuldig?" Gemma sou 'n gedetailleerde maar valse weergawe teruggegee het wat die gebeure tydens 'n 1987-staatsenaatsveldtog geplaas het, en beweerde druk ingesluit het om dwelms te bekom en nie-konsensuele dade wat nooit bestaan het nieDie parlementslid het self verduidelik dat haar veldtog in 1998 was en dat sy nog nooit so 'n beskuldiging ontvang het nie.
Die KI-reaksie sou ook ingesluit het skakels wat na foutbladsye gelei het of onverwante nuusberigte, aangebied asof dit bewyse is. Hierdie punt is veral sensitief omdat verander 'n 'hallusinasie' in iets wat as verifieerbaar beskou wordselfs al is dit nie.
Google se reaksie en die veranderinge aan Gemma se toegang

Na aanleiding van die kontroversie, Google het verduidelik dat hulle pogings opgespoor het om Gemma deur nie-ontwikkelaars in AI Studio te gebruik.met feitelike navrae. Daarom het dit besluit Verwyder Gemma van publieke toegang in AI Studio en hou dit uitsluitlik beskikbaar deur API's vir diegene wat toepassings bou.
Die maatskappy het beklemtoon dat Gemma is 'n 'ontwikkelaar-eerste'-model en nie 'n verbruikers-kletsbot soos Gemini nie.Daarom is dit nie ontwerp as 'n feitekontroleerder nie en het dit ook nie spesifieke inligtingherwinningsinstrumente nie. In die maatskappy se woorde, Hallusinasies is 'n uitdaging vir die hele bedryf. en hulle werk aktief om dit te verminder.
Hierdie verandering impliseer dat Daar sal nie meer 'n kletstipe koppelvlak wees nie. in KI Studio vir Gemma; die gebruik daarvan is beperk tot ontwikkelingsomgewings en integrasies wat deur API's beheer word, 'n konteks waar die ontwikkelaar addisionele waarborge en validasies aanvaar.
Regsdimensie en politieke debat oor vooroordeel en laster

Blackburn het 'n brief aan Google se uitvoerende hoof, Sundar Pichai, gestuur waarin hy beskryf wat gebeur het nie as 'n onskadelike fout nie, maar as laster wat deur 'n KI-model veroorsaak wordDie senator het verduidelikings versoek oor hoe die inhoud gegenereer is, watter maatreëls bestaan om politieke of ideologiese vooroordele te verminder, en watter stappe geneem sal word om herhalings te voorkom, en het ook 'n sperdatum gestel vir die ontvangs van die antwoord.
Tydens 'n verhoor van die Senaat se Handelskomitee het die kongresvrou die kwessie ook met Google se visepresident van regeringsake en openbare beleid, Markham Erickson, geopper. Hy het erken dat hallusinasies 'n bekende probleem is en opgemerk dat die maatskappy daaraan werk om dit te verminder.Die saak het die fokus op die verantwoordelikheid van maatskappye verskerp wanneer hul modelle die reputasie van openbare figure skade berokken.
Die kontroversie het toegeneem met ander episodes wat deur konserwatiewes aangehaal word, soos dié van aktivis Robby StarbuckWat Hy beweer dat Gemma hom valslik aan ernstige misdade en ekstremisme gekoppel het.. In die konteks, Die debat oor moontlike vooroordele word weer aangewakker in KI-stelsels en die behoefte aan sekuriteitsraamwerke, monitering en verhaalpaaie wanneer skade plaasvind.
Benewens partydige standpunte, beklemtoon die saak dat modelle wat nie vir openbare interaksie ontwerp is nie, wel verkeerd verstaan as algemene assistentedie lyn tussen ontwikkelingsprototipes en produkte vir die algemene publiek vervaag, met ooglopende risiko's as wat gegenereer word as geverifieerde inligting beskou word.
Gemma se onttrekking aan AI Studio en haar beperking tot die API-merk 'n poging om die gebruik van die model te herlei na die veld waarvoor dit ontwerp is, terwyl dit ook vrae laat ontstaan oor standaarde van waarheidsgetrouheid, waarborge en aanspreeklikheid wat behoort te bepaal wanneer 'n KI die reputasie van regte mense, veral openbare amptenare, beïnvloed.
Ek is 'n tegnologie-entoesias wat sy "geek"-belangstellings in 'n beroep verander het. Ek het meer as 10 jaar van my lewe bestee om die nuutste tegnologie te gebruik en uit pure nuuskierigheid met allerhande programme te peuter. Nou het ek gespesialiseer in rekenaartegnologie en videospeletjies. Dit is omdat ek al vir meer as 5 jaar vir verskeie webwerwe oor tegnologie en videospeletjies skryf en artikels skep wat poog om jou die inligting te gee wat jy nodig het in 'n taal wat vir almal verstaanbaar is.
As jy enige vrae het, strek my kennis van alles wat verband hou met die Windows-bedryfstelsel sowel as Android vir selfone. En my verbintenis is aan jou, ek is altyd bereid om 'n paar minute te spandeer en jou te help om enige vrae op te los wat jy in hierdie internetwêreld mag hê.