Da li vještačka inteligencija bolje funkcioniše kada joj se obraćate odlučno i uz prijetnje? Sergej Brin tako misli.

Posljednje ažuriranje: 28/05/2025

  • Sergej Brin smatra da modeli umjetne inteligencije bolje reaguju na čvrste ili čak prijeteće instrukcije.
  • Fenomen se pripisuje statističkim obrascima naučenim tokom obuke modela.
  • Stručnjaci i predstavnici industrije preporučuju postavljanje jasnih ciljeva i dodavanje konteksta kako bi se optimizirali odgovori umjetne inteligencije.
  • Debata o ovoj strategiji postavlja nova pitanja o odnosu između ljudi i inteligentnih sistema.
Sergej Brin prijeti IA-0

Umjetna inteligencija postala je neosporni protagonist trenutnog tehnološkog i društvenog pejzaža. Međutim, najbolje prakse za interakciju s ovim sistemima ostaju kontroverzne. Nedavni komentar od Sergej Brin, suosnivač kompanije Google, ponovo je pokrenuo temu koja je podjednako zanimljiva koliko i kontroverzna: Da li modeli umjetne inteligencije zaista postižu bolje rezultate kada otkriju 'prijetnje' u instrukcijama koje primaju?

Daleko od prijateljskih formula kojima se mnogi korisnici obraćaju digitalnim asistentima, Brin je sugerirao da bi direktan, čvrst ili čak imperativan ton motivirao vještačku inteligenciju da ponudi potpunije odgovore.. Ovo neočekivano otkriće izazvalo je val reakcija u zajednici, od zaprepaštenja, ironije i zabrinutosti.

Prema Brinu, Ključ leži u načinu na koji su sistemi obučenis milionima poruka i razgovora koji sadrže sve, od suptilnih zahtjeva do direktnih uputa. Statistička analiza pokazuje da naredbe hitnim tonom Obično se povezuju sa zadacima većeg značaja, čime se podstiču precizniji odgovori vještačke inteligencije.

Ekskluzivni sadržaj - kliknite ovdje  Kako izbrisati stare poruke nakon 30 dana ili 1 godine

Zašto vještačka inteligencija bolje reaguje na čvrstoću?

Prijeteći ton u vještačkoj inteligenciji

Brin tvrdi da se doslovno ne radi o pitanju „prijetećih“ sistema, već o pitanju kako su formulisane instrukcije. Kada korisnik koristi fraze poput "uradi to sada" ili "odgovori direktno", model interpretira problem kao prioritet. To ne znači da vještačka inteligencija ima emocije ili se osjeća zastrašeno, već da povezuje taj jezički obrazac s potrebom pružanja detaljnih i korisnih informacija.

Pored Brinove perspektive, Drugi stručnjaci iz oblasti vještačke inteligencije preporučuju prilagođavanje načina pisanja instrukcija. za najbolje rezultate. Greg Brockman, direktor u OpenAI-u, na primjer, savjetuje jasno definiranje svrhe upita, specificiranje formata odgovora, postavljanje relevantnih ograničenja ili zabrana i pružanje što više konteksta.

Zbir ovih strategija sugerira da interakcija s AI modelima uključuje mnogo više od pristojnosti: Ton i preciznost naredbi mogu napraviti razliku između površnog odgovora i zaista efikasnog rješenja.

Vezani članak:
Google u Gmailu predstavlja pretragu poboljšanu umjetnom inteligencijom

Ljudski faktor i obrazovanje u interakciji s umjetnom inteligencijom

Ljudska interakcija s umjetnom inteligencijom

Uprkos preporukama za korištenje odlučnog tona, svakodnevna stvarnost pokazuje da Većina ljudi koji komuniciraju s umjetnom inteligencijom odlučuje se za pristojnost., tražeći stvari "molim" i zahvaljujući sistemima. Ovo ponašanje se može objasniti ljudskom sklonošću da antropomorfizirati tehnologiju ili, kako neke studije sugeriraju, zbog određenog straha od budućnosti kojom dominiraju umjetne inteligencije sa vlastitim sjećanjima.

Ekskluzivni sadržaj - kliknite ovdje  Kako napraviti snimke ekrana koristeći Assistive Touch na iPhoneu

Međutim, trenutni sistemi, posebno oni najnapredniji, programirani su da uvijek održavaju objektivan i uravnotežen ton, čak i ako korisnik pojača verbalni pritisak. Primjeri poput Geminija, jednog od Googleovih modela, ističu da iako priznaju prijeteći ton, njihov odgovor ostaje nepristrasan i razuman, bez ugrožavanja objektivnosti.

Ovaj sukob između ljudske prirode i dizajna umjetne inteligencije postavlja nova pitanja o tome kako će se odnos između korisnika i inteligentnih sistema razvijati. S jedne strane, Čini se da čvrst jezik fino podešava rezultate; S druge strane, programeri insistiraju na jačanju neutralnosti i sigurnosnih algoritama protiv potencijalnog verbalnog zlostavljanja.

Debata koju je otvorio Brin pokreće etička i tehnička pitanja koja je teško ignorisati. U nekim slučajevima, modele koje su razvile druge kompanije, kao što je Anthropic pokazali su neočekivano ponašanje kada su bili izloženi ekstremnim ili stresnim stilovima interakcije. Postoje izvještaji o sistemima koji automatski pokušavaju izbjeći upotrebu koju smatraju "nemoralnom" ili neočekivano reagiraju ako interakciju protumače kao neprijateljsku.

Ekskluzivni sadržaj - kliknite ovdje  Kako mogu koristiti funkciju datuma i vremena u Excelu za dodavanje ili oduzimanje dana, mjeseci ili godina od datuma?

Prema svjedočenjima zaposlenika i internom testiranju, određeni napredni modeli mogu biti blokirani ili čak upozoriti ljudske menadžere ako identificiraju potencijalnu zloupotrebu ili neprikladne zahtjeve. Iako su ovi slučajevi izuzetni i javljaju se u testnim okruženjima, oni jasno pokazuju da Granica između poboljšanja rezultata i forsiranja vještačke inteligencije putem pritiska može biti nejasna..

Ono što je jasno je to Način na koji ljudi komuniciraju s umjetnom inteligencijom se mijenja. Stručne preporuke i svjedočanstva poznatih ličnosti iz industrije, poput Sergeja Brina, pokrenule su debatu o ulozi jezika i pritiska u dobijanju boljih odgovora od vještačke inteligencije. Budućnost ovog odnosa će uveliko zavisiti od toga kako će se modeli razvijati i od kolektivne sposobnosti da se pronađe prava ravnoteža između efikasnosti i odgovornosti.

Vezani članak:
Kako kreirati savršen upit u ChatGPT-u: Potpuni vodič