- Sergej Brin smatra da modeli umjetne inteligencije bolje reaguju na čvrste ili čak prijeteće instrukcije.
- Fenomen se pripisuje statističkim obrascima naučenim tokom obuke modela.
- Stručnjaci i predstavnici industrije preporučuju postavljanje jasnih ciljeva i dodavanje konteksta kako bi se optimizirali odgovori umjetne inteligencije.
- Debata o ovoj strategiji postavlja nova pitanja o odnosu između ljudi i inteligentnih sistema.

Umjetna inteligencija postala je neosporni protagonist trenutnog tehnološkog i društvenog pejzaža. Međutim, najbolje prakse za interakciju s ovim sistemima ostaju kontroverzne. Nedavni komentar od Sergej Brin, suosnivač kompanije Google, ponovo je pokrenuo temu koja je podjednako zanimljiva koliko i kontroverzna: Da li modeli umjetne inteligencije zaista postižu bolje rezultate kada otkriju 'prijetnje' u instrukcijama koje primaju?
Daleko od prijateljskih formula kojima se mnogi korisnici obraćaju digitalnim asistentima, Brin je sugerirao da bi direktan, čvrst ili čak imperativan ton motivirao vještačku inteligenciju da ponudi potpunije odgovore.. Ovo neočekivano otkriće izazvalo je val reakcija u zajednici, od zaprepaštenja, ironije i zabrinutosti.
Prema Brinu, Ključ leži u načinu na koji su sistemi obučenis milionima poruka i razgovora koji sadrže sve, od suptilnih zahtjeva do direktnih uputa. Statistička analiza pokazuje da naredbe hitnim tonom Obično se povezuju sa zadacima većeg značaja, čime se podstiču precizniji odgovori vještačke inteligencije.
Zašto vještačka inteligencija bolje reaguje na čvrstoću?
Brin tvrdi da se doslovno ne radi o pitanju „prijetećih“ sistema, već o pitanju kako su formulisane instrukcije. Kada korisnik koristi fraze poput "uradi to sada" ili "odgovori direktno", model interpretira problem kao prioritet. To ne znači da vještačka inteligencija ima emocije ili se osjeća zastrašeno, već da povezuje taj jezički obrazac s potrebom pružanja detaljnih i korisnih informacija.
Pored Brinove perspektive, Drugi stručnjaci iz oblasti vještačke inteligencije preporučuju prilagođavanje načina pisanja instrukcija. za najbolje rezultate. Greg Brockman, direktor u OpenAI-u, na primjer, savjetuje jasno definiranje svrhe upita, specificiranje formata odgovora, postavljanje relevantnih ograničenja ili zabrana i pružanje što više konteksta.
Zbir ovih strategija sugerira da interakcija s AI modelima uključuje mnogo više od pristojnosti: Ton i preciznost naredbi mogu napraviti razliku između površnog odgovora i zaista efikasnog rješenja.
Ljudski faktor i obrazovanje u interakciji s umjetnom inteligencijom
Uprkos preporukama za korištenje odlučnog tona, svakodnevna stvarnost pokazuje da Većina ljudi koji komuniciraju s umjetnom inteligencijom odlučuje se za pristojnost., tražeći stvari "molim" i zahvaljujući sistemima. Ovo ponašanje se može objasniti ljudskom sklonošću da antropomorfizirati tehnologiju ili, kako neke studije sugeriraju, zbog određenog straha od budućnosti kojom dominiraju umjetne inteligencije sa vlastitim sjećanjima.
Međutim, trenutni sistemi, posebno oni najnapredniji, programirani su da uvijek održavaju objektivan i uravnotežen ton, čak i ako korisnik pojača verbalni pritisak. Primjeri poput Geminija, jednog od Googleovih modela, ističu da iako priznaju prijeteći ton, njihov odgovor ostaje nepristrasan i razuman, bez ugrožavanja objektivnosti.
Ovaj sukob između ljudske prirode i dizajna umjetne inteligencije postavlja nova pitanja o tome kako će se odnos između korisnika i inteligentnih sistema razvijati. S jedne strane, Čini se da čvrst jezik fino podešava rezultate; S druge strane, programeri insistiraju na jačanju neutralnosti i sigurnosnih algoritama protiv potencijalnog verbalnog zlostavljanja.
Debata koju je otvorio Brin pokreće etička i tehnička pitanja koja je teško ignorisati. U nekim slučajevima, modele koje su razvile druge kompanije, kao što je Anthropic pokazali su neočekivano ponašanje kada su bili izloženi ekstremnim ili stresnim stilovima interakcije. Postoje izvještaji o sistemima koji automatski pokušavaju izbjeći upotrebu koju smatraju "nemoralnom" ili neočekivano reagiraju ako interakciju protumače kao neprijateljsku.
Prema svjedočenjima zaposlenika i internom testiranju, određeni napredni modeli mogu biti blokirani ili čak upozoriti ljudske menadžere ako identificiraju potencijalnu zloupotrebu ili neprikladne zahtjeve. Iako su ovi slučajevi izuzetni i javljaju se u testnim okruženjima, oni jasno pokazuju da Granica između poboljšanja rezultata i forsiranja vještačke inteligencije putem pritiska može biti nejasna..
Ono što je jasno je to Način na koji ljudi komuniciraju s umjetnom inteligencijom se mijenja. Stručne preporuke i svjedočanstva poznatih ličnosti iz industrije, poput Sergeja Brina, pokrenule su debatu o ulozi jezika i pritiska u dobijanju boljih odgovora od vještačke inteligencije. Budućnost ovog odnosa će uveliko zavisiti od toga kako će se modeli razvijati i od kolektivne sposobnosti da se pronađe prava ravnoteža između efikasnosti i odgovornosti.
Ja sam tehnološki entuzijasta koji je svoja "geek" interesovanja pretvorio u profesiju. Proveo sam više od 10 godina svog života koristeći najsavremeniju tehnologiju i petljajući po svim vrstama programa iz čiste radoznalosti. Sada sam se specijalizirao za kompjutersku tehnologiju i video igrice. To je zato što više od 5 godina pišem za razne web stranice o tehnologiji i video igricama, stvarajući članke koji nastoje dati vam potrebne informacije na jeziku koji je svima razumljiv.
Ako imate bilo kakvih pitanja, moje znanje seže od svega vezanog za Windows operativni sistem kao i Android za mobilne telefone. I moja posvećenost je vama, uvijek sam spreman potrošiti nekoliko minuta i pomoći vam da riješite sva pitanja koja imate u ovom svijetu interneta.

