Radi li umjetna inteligencija bolje kada joj se obraćate čvrsto i s prijetnjama? Sergej Brin tako misli.

Zadnje ažuriranje: 28/05/2025

  • Sergey Brin sugerira da modeli umjetne inteligencije bolje reagiraju na čvrste ili čak prijeteće upute.
  • Fenomen se pripisuje statističkim obrascima naučenim tijekom treniranja modela.
  • Stručnjaci i osobe iz industrije preporučuju postavljanje jasnih ciljeva i dodavanje konteksta kako bi se optimizirali odgovori umjetne inteligencije.
  • Rasprava o ovoj strategiji postavlja nova pitanja o odnosu između ljudi i inteligentnih sustava.
Sergej Brin prijeti IA-0

Umjetna inteligencija postala je neosporni protagonist trenutnog tehnološkog i društvenog krajolika. Međutim, najbolje prakse za interakciju s tim sustavima ostaju kontroverzne. Nedavni komentar od Sergey Brin, suosnivač Googlea, ponovno je pokrenuo temu koja je jednako zanimljiva koliko i kontroverzna: Jesu li modeli umjetne inteligencije zapravo bolji kada otkriju 'prijetnje' u uputama koje primaju?

Daleko od prijateljskih formula kojima se mnogi korisnici obraćaju digitalnim asistentima, Brin je sugerirao da bi izravan, čvrst ili čak imperativan ton motivirao umjetnu inteligenciju da ponudi potpunije odgovore.. Ovo neočekivano otkriće izazvalo je val reakcija u zajednici, od zaprepaštenja, ironije do zabrinutosti.

Prema Brinu, Ključ leži u načinu na koji su sustavi obučenis milijunima poruka i razgovora koji sadrže sve, od suptilnih zahtjeva do izravnih uputa. Statistička analiza pokazuje da je naredbe hitnim tonom Obično se povezuju sa zadacima veće važnosti, čime se potiču precizniji odgovori umjetne inteligencije.

Ekskluzivan sadržaj - Kliknite ovdje  Kako preuzeti svoje omiljene postove na Tik-Toku?

Zašto umjetna inteligencija bolje reagira na čvrstoću?

Prijeteći ton u umjetnoj inteligenciji

Brin tvrdi da se doslovno ne radi o pitanju „prijetećih“ sustava, već o pitanju kako su formulirane upute. Kada korisnik koristi fraze poput "učini to sada" ili "odgovori izravno", model interpretira problem kao prioritet. To ne znači da umjetna inteligencija ima emocije ili se osjeća zastrašeno, već da povezuje taj jezični obrazac s potrebom pružanja detaljnih i korisnih informacija.

Uz Brinovu perspektivu, Drugi stručnjaci iz područja umjetne inteligencije preporučuju prilagodbu načina pisanja uputa. za najbolje rezultate. Greg Brockman, direktor tvrtke OpenAI, na primjer, savjetuje jasno definiranje svrhe upita, određivanje formata odgovora, postavljanje relevantnih ograničenja ili zabrana i pružanje što više konteksta.

Zbroj ovih strategija sugerira da interakcija s AI modelima uključuje mnogo više od pristojnosti: Ton i preciznost naredbi mogu napraviti razliku između površnog odgovora i uistinu učinkovitog rješenja.

Povezani članak:
Google predstavlja pretraživanje poboljšano umjetnom inteligencijom u Gmailu

Ljudski faktor i obrazovanje u interakciji s umjetnom inteligencijom

Ljudska interakcija s umjetnom inteligencijom

Unatoč preporukama za korištenje čvrstih tonova, svakodnevna stvarnost pokazuje da Većina ljudi koji komuniciraju s umjetnom inteligencijom odlučuje se za pristojnost, tražeći stvari „molim“ i zahvaljujući sustavima. Ovo ponašanje se može objasniti ljudskom sklonošću da antropomorfizirati tehnologiju ili, kako neke studije sugeriraju, zbog određenog straha od budućnosti kojom dominiraju umjetne inteligencije s vlastitim sjećanjima.

Ekskluzivan sadržaj - Kliknite ovdje  Kako personalizirati svoju poštu u Yahoo Mailu?

Međutim, trenutni sustavi, posebno oni najnapredniji, programirani su da uvijek održavaju objektivan i uravnotežen ton, čak i ako korisnik poveća verbalni pritisak. Primjeri poput Geminija, jednog od Googleovih modela, ističu da iako priznaju prijeteći ton, njihov odgovor ostaje nepristran i razuman, bez ugrožavanja objektivnosti.

Ovaj sukob između ljudske prirode i dizajna umjetne inteligencije postavlja nova pitanja o tome kako će se razvijati odnos između korisnika i inteligentnih sustava. S jedne strane, Čini se da čvrst jezik fino podešava rezultate; S druge strane, programeri inzistiraju na jačanju neutralnosti i sigurnosnih algoritama protiv potencijalnog verbalnog zlostavljanja.

Rasprava koju je otvorio Brin postavlja etička i tehnička pitanja koja je teško ignorirati. U nekim slučajevima, modele koje su razvile druge tvrtke poput Anthropica pokazali su neočekivano ponašanje kada su bili izloženi ekstremnim ili stresnim stilovima interakcije. Postoje izvješća o sustavima koji automatski pokušavaju izbjeći korištenje koje smatraju "nemoralnim" ili neočekivano reagiraju ako interakciju protumače kao neprijateljsku.

Ekskluzivan sadržaj - Kliknite ovdje  Kako napraviti snimku zaslona na Asus prijenosnom računalu sa sustavom Windows 10

Prema svjedočanstvima zaposlenika i internom testiranju, određeni napredni modeli mogu se blokirati ili čak upozoriti ljudske menadžere ako identificiraju potencijalnu zlouporabu ili neprimjerene zahtjeve. Iako su ovi slučajevi iznimni i javljaju se u testnim okruženjima, jasno pokazuju da Granica između poboljšanja rezultata i forsiranja umjetne inteligencije pritiskom može biti nejasna..

Ono što je jasno je to Način na koji ljudi komuniciraju s umjetnom inteligencijom se mijenja. Stručne preporuke i svjedočanstva poznatih osoba iz industrije poput Sergeja Brina potaknule su raspravu o ulozi jezika i pritiska u dobivanju boljih odgovora od umjetne inteligencije. Budućnost ovog odnosa uvelike će ovisiti o tome kako će se modeli razvijati i o kolektivnoj sposobnosti pronalaska prave ravnoteže između učinkovitosti i odgovornosti.

Povezani članak:
Kako stvoriti savršeni upit u ChatGPT-u: Potpuni vodič