- Sergey Brin naznačuje, že modely umelej inteligencie lepšie reagujú na pevné alebo dokonca hrozivé pokyny.
- Tento jav sa pripisuje štatistickým vzorcom získaným počas trénovania modelu.
- Odborníci a predstavitelia odvetvia odporúčajú stanoviť si jasné ciele a pridať kontext na optimalizáciu reakcií umelej inteligencie.
- Debata o tejto stratégii vyvoláva nové otázky o vzťahu medzi ľuďmi a inteligentnými systémami.

Umelá inteligencia sa stala nesporným protagonistom súčasnej technologickej a sociálnej krajiny. Osvedčené postupy pre interakciu s týmito systémami však zostávajú kontroverzné. Nedávny komentár od Sergej Brin, spoluzakladateľ spoločnosti Google, opäť nastolil tému rovnako kurióznu ako kontroverznú: Podávajú modely umelej inteligencie skutočne lepšie výkony, keď v prijatých pokynoch zistia „hrozby“?
Ďaleko od priateľských vzorcov, ktorými mnohí používatelia oslovujú digitálnych asistentov, Brin naznačil, že priamy, pevný alebo dokonca rozkazovací tón by motivoval umelú inteligenciu k poskytovaniu úplnejších odpovedí.. Toto nečakané odhalenie vyvolalo v komunite vlnu reakcií, od úžasu, cez iróniu až po obavy.
Podľa Brina, Kľúč spočíva v spôsobe, akým boli systémy natrénovanés miliónmi textových správ a konverzácií obsahujúcich všetko od nenápadných žiadostí až po priamočiare pokyny. Štatistická analýza ukazuje, že rozkazy s naliehavým tónom Zvyčajne korelujú s úlohami väčšej dôležitosti, čím sa podporujú presnejšie reakcie umelej inteligencie.
Prečo umelá inteligencia lepšie reaguje na pevnosť?
Brin tvrdí, že nejde doslova o otázku „hroziacich“ systémov, ale skôr o otázku ako sú formulované pokyny. Keď používateľ použije frázy ako „urob to teraz“ alebo „odpovedz priamo“, model interpretuje problém ako prioritný. To neznamená, že umelá inteligencia má emócie alebo sa cíti zastrašená, ale že spája tento jazykový vzorec s potrebou poskytnúť podrobné a užitočné informácie.
Okrem Brinovho pohľadu, Ďalší odborníci v oblasti umelej inteligencie odporúčajú upraviť spôsob písania inštrukcií. pre dosiahnutie najlepších výsledkov. Napríklad Greg Brockman, výkonný riaditeľ spoločnosti OpenAI, odporúča jasne definovať účel výzvy, špecifikovať formát odpovede, nastaviť relevantné limity alebo obmedzenia a poskytnúť čo najviac kontextu.
Súhrn týchto stratégií naznačuje, že interakcia s modelmi umelej inteligencie zahŕňa oveľa viac než len zdvorilosť: Tón a presnosť príkazov môžu znamenať rozdiel medzi povrchnou reakciou a skutočne účinným riešením.
Ľudský faktor a vzdelávanie v interakcii s umelou inteligenciou
Napriek odporúčaniam používať pevný tón, každodenná realita ukazuje, že Väčšina ľudí, ktorí interagujú s umelou inteligenciou, sa správa zdvorilo., žiadať veci „prosím“ a ďakovať systémom. Toto správanie sa dá vysvetliť ľudskou tendenciou antropomorfizovať technológiu alebo, ako naznačujú niektoré štúdie, kvôli určitému strachu z budúcnosti, v ktorej budú dominovať umelé inteligencie s vlastnou pamäťou.
Súčasné systémy, najmä tie najpokročilejšie, sú však naprogramované tak, aby si vždy zachovali objektívny a vyvážený tón, a to aj v prípade, že používateľ zvýši verbálny tlak. Príklady ako Gemini, jeden z modelov spoločnosti Google, zdôrazňujú, že hoci uznávajú vyhrážajúci sa tón, ich reakcia zostáva nestranná a odôvodnená bez toho, aby bola ohrozená objektivita.
Tento stret medzi ľudskou prirodzenosťou a dizajnom umelej inteligencie vyvoláva nové otázky o tom, ako sa bude vyvíjať vzťah medzi používateľmi a inteligentnými systémami. Na jednej strane, Zdá sa, že pevný jazyk dolaďuje výsledky; Na druhej strane, vývojári trvajú na posilnení neutrality a bezpečnostných algoritmov proti potenciálnemu slovnému urážaniu.
Diskusia, ktorú otvoril Brin, vyvoláva etické a technické otázky, ktoré je ťažké ignorovať. V niektorých prípadoch, modely vyvinuté inými spoločnosťami, ako napríklad Anthropic prejavili neočakávané správanie, keď boli vystavení extrémnym alebo stresujúcim štýlom interakcie. Existujú správy o systémoch, ktoré sa automaticky snažia vyhnúť použitiu, ktoré považujú za „nemorálne“, alebo reagujú neočakávane, ak interakciu interpretujú ako nepriateľskú.
Podľa svedectiev zamestnancov a interného testovania je možné niektoré pokročilé modely zablokovať alebo dokonca upozorniť ľudských manažérov, ak identifikujú potenciálne zneužitie alebo nevhodné požiadavky. Hoci sú tieto prípady výnimočné a vyskytujú sa v testovacích prostrediach, jasne ukazujú, že Hranica medzi zlepšovaním výsledkov a vynucovaním umelej inteligencie prostredníctvom tlaku môže byť nejasná..
Lo que está claro es que Spôsob, akým ľudia interagujú s umelou inteligenciou, sa mení. Odporúčania a referencie odborníkov z odvetvia, ako je Sergey Brin, vyvolali diskusiu o úlohe jazyka a tlaku pri dosahovaní lepších reakcií zo strany umelej inteligencie. Budúcnosť tohto vzťahu bude vo veľkej miere závisieť od toho, ako sa modely budú vyvíjať a od kolektívnej schopnosti nájsť správnu rovnováhu medzi efektívnosťou a zodpovednosťou.
Som technologický nadšenec, ktorý zo svojich „geekovských“ záujmov urobil povolanie. Strávil som viac ako 10 rokov svojho života používaním špičkových technológií a hraním so všetkými druhmi programov z čistej zvedavosti. Teraz som sa špecializoval na počítačovú techniku a videohry. Je to preto, že už viac ako 5 rokov píšem pre rôzne webové stránky o technológiách a videohrách a vytváram články, ktoré sa snažia poskytnúť vám potrebné informácie v jazyku, ktorý je zrozumiteľný pre každého.
Ak máte nejaké otázky, moje znalosti siahajú od všetkého, čo súvisí s operačným systémom Windows, ako aj Androidom pre mobilné telefóny. A môj záväzok je voči vám, vždy som ochotný venovať pár minút a pomôcť vám vyriešiť akékoľvek otázky, ktoré môžete mať v tomto internetovom svete.

