- Sergey Brin sugerira da modeli umjetne inteligencije bolje reagiraju na čvrste ili čak prijeteće upute.
- Fenomen se pripisuje statističkim obrascima naučenim tijekom treniranja modela.
- Stručnjaci i osobe iz industrije preporučuju postavljanje jasnih ciljeva i dodavanje konteksta kako bi se optimizirali odgovori umjetne inteligencije.
- Rasprava o ovoj strategiji postavlja nova pitanja o odnosu između ljudi i inteligentnih sustava.

Umjetna inteligencija postala je neosporni protagonist trenutnog tehnološkog i društvenog krajolika. Međutim, najbolje prakse za interakciju s tim sustavima ostaju kontroverzne. Nedavni komentar od Sergey Brin, suosnivač Googlea, ponovno je pokrenuo temu koja je jednako zanimljiva koliko i kontroverzna: Jesu li modeli umjetne inteligencije zapravo bolji kada otkriju 'prijetnje' u uputama koje primaju?
Daleko od prijateljskih formula kojima se mnogi korisnici obraćaju digitalnim asistentima, Brin je sugerirao da bi izravan, čvrst ili čak imperativan ton motivirao umjetnu inteligenciju da ponudi potpunije odgovore.. Ovo neočekivano otkriće izazvalo je val reakcija u zajednici, od zaprepaštenja, ironije do zabrinutosti.
Prema Brinu, Ključ leži u načinu na koji su sustavi obučenis milijunima poruka i razgovora koji sadrže sve, od suptilnih zahtjeva do izravnih uputa. Statistička analiza pokazuje da je naredbe hitnim tonom Obično se povezuju sa zadacima veće važnosti, čime se potiču precizniji odgovori umjetne inteligencije.
Zašto umjetna inteligencija bolje reagira na čvrstoću?
Brin tvrdi da se doslovno ne radi o pitanju „prijetećih“ sustava, već o pitanju kako su formulirane upute. Kada korisnik koristi fraze poput "učini to sada" ili "odgovori izravno", model interpretira problem kao prioritet. To ne znači da umjetna inteligencija ima emocije ili se osjeća zastrašeno, već da povezuje taj jezični obrazac s potrebom pružanja detaljnih i korisnih informacija.
Uz Brinovu perspektivu, Drugi stručnjaci iz područja umjetne inteligencije preporučuju prilagodbu načina pisanja uputa. za najbolje rezultate. Greg Brockman, direktor tvrtke OpenAI, na primjer, savjetuje jasno definiranje svrhe upita, određivanje formata odgovora, postavljanje relevantnih ograničenja ili zabrana i pružanje što više konteksta.
Zbroj ovih strategija sugerira da interakcija s AI modelima uključuje mnogo više od pristojnosti: Ton i preciznost naredbi mogu napraviti razliku između površnog odgovora i uistinu učinkovitog rješenja.
Ljudski faktor i obrazovanje u interakciji s umjetnom inteligencijom
Unatoč preporukama za korištenje čvrstih tonova, svakodnevna stvarnost pokazuje da Većina ljudi koji komuniciraju s umjetnom inteligencijom odlučuje se za pristojnost, tražeći stvari „molim“ i zahvaljujući sustavima. Ovo ponašanje se može objasniti ljudskom sklonošću da antropomorfizirati tehnologiju ili, kako neke studije sugeriraju, zbog određenog straha od budućnosti kojom dominiraju umjetne inteligencije s vlastitim sjećanjima.
Međutim, trenutni sustavi, posebno oni najnapredniji, programirani su da uvijek održavaju objektivan i uravnotežen ton, čak i ako korisnik poveća verbalni pritisak. Primjeri poput Geminija, jednog od Googleovih modela, ističu da iako priznaju prijeteći ton, njihov odgovor ostaje nepristran i razuman, bez ugrožavanja objektivnosti.
Ovaj sukob između ljudske prirode i dizajna umjetne inteligencije postavlja nova pitanja o tome kako će se razvijati odnos između korisnika i inteligentnih sustava. S jedne strane, Čini se da čvrst jezik fino podešava rezultate; S druge strane, programeri inzistiraju na jačanju neutralnosti i sigurnosnih algoritama protiv potencijalnog verbalnog zlostavljanja.
Rasprava koju je otvorio Brin postavlja etička i tehnička pitanja koja je teško ignorirati. U nekim slučajevima, modele koje su razvile druge tvrtke poput Anthropica pokazali su neočekivano ponašanje kada su bili izloženi ekstremnim ili stresnim stilovima interakcije. Postoje izvješća o sustavima koji automatski pokušavaju izbjeći korištenje koje smatraju "nemoralnim" ili neočekivano reagiraju ako interakciju protumače kao neprijateljsku.
Prema svjedočanstvima zaposlenika i internom testiranju, određeni napredni modeli mogu se blokirati ili čak upozoriti ljudske menadžere ako identificiraju potencijalnu zlouporabu ili neprimjerene zahtjeve. Iako su ovi slučajevi iznimni i javljaju se u testnim okruženjima, jasno pokazuju da Granica između poboljšanja rezultata i forsiranja umjetne inteligencije pritiskom može biti nejasna..
Ono što je jasno je to Način na koji ljudi komuniciraju s umjetnom inteligencijom se mijenja. Stručne preporuke i svjedočanstva poznatih osoba iz industrije poput Sergeja Brina potaknule su raspravu o ulozi jezika i pritiska u dobivanju boljih odgovora od umjetne inteligencije. Budućnost ovog odnosa uvelike će ovisiti o tome kako će se modeli razvijati i o kolektivnoj sposobnosti pronalaska prave ravnoteže između učinkovitosti i odgovornosti.
Ja sam tehnološki entuzijast koji je svoje "geek" interese pretvorio u profesiju. Proveo sam više od 10 godina svog života koristeći vrhunsku tehnologiju i petljajući sa svim vrstama programa iz čiste znatiželje. Sada sam se specijalizirao za računalne tehnologije i video igre. To je zato što sam više od 5 godina pisao za razne web stranice o tehnologiji i videoigrama, stvarajući članke koji vam nastoje dati informacije koje su vam potrebne na jeziku koji je svima razumljiv.
Ako imate bilo kakvih pitanja, moje znanje seže od svega vezanog uz Windows operativni sustav kao i Android za mobitele. I moja je posvećenost vama, uvijek sam spreman odvojiti nekoliko minuta i pomoći vam riješiti sva pitanja koja imate u ovom internetskom svijetu.

