- Сяргей Брын мяркуе, што мадэлі штучнага інтэлекту лепш рэагуюць на цвёрдыя або нават пагрозлівыя інструкцыі.
- Гэтая з'ява тлумачыцца статыстычнымі заканамернасцямі, вывучанымі падчас навучання мадэлі.
- Эксперты і галіновыя дзеячы рэкамендуюць ставіць выразныя мэты і дадаваць кантэкст для аптымізацыі рэакцый штучнага інтэлекту.
- Дыскусія вакол гэтай стратэгіі падымае новыя пытанні аб узаемасувязі паміж людзьмі і інтэлектуальнымі сістэмамі.

Штучны інтэлект стаў бясспрэчным героем сучаснага тэхналагічнага і сацыяльнага ландшафту. Аднак найлепшыя практыкі ўзаемадзеяння з гэтымі сістэмамі застаюцца спрэчнымі. Нядаўні каментар ад Сяргей Брын, сузаснавальнік Google, зноў узняў тэму, такую ж цікавую, як і спрэчную: Ці сапраўды мадэлі штучнага інтэлекту працуюць лепш, калі выяўляюць «пагрозы» ў атрыманых імі інструкцыях?
Далёка ад прыязных формул, з якімі многія карыстальнікі звяртаюцца да лічбавых памочнікаў, Брын выказаў здагадку, што прамы, цвёрды ці нават загадны тон будзе матываваць штучны інтэлект прапаноўваць больш поўныя адказы.. Гэтае нечаканае адкрыццё выклікала хвалю рэакцый у грамадстве, ад здзіўлення да іроніі і занепакоенасці.
Паводле слоў Брына, Ключ крыецца ў тым, як сістэмы былі навучаныз мільёнамі тэкставых паведамленняў і размоў, якія змяшчаюць усё: ад тонкіх просьбаў да рэзкіх інструкцый. Статыстычны аналіз паказвае, што загады з тэрміновым тонам Звычайна яны карэлююць з задачамі большай важнасці, што спрыяе больш дакладным рэакцыям штучнага інтэлекту.
Чаму штучны інтэлект лепш рэагуе на цвёрдасць?
Брын сцвярджае, што гэта не літаральна пытанне «пагрозячых» сістэм, а хутчэй пытанне як сфармуляваны інструкцыі. Калі карыстальнік выкарыстоўвае такія фразы, як «зрабі гэта зараз» або «адкажы непасрэдна», мадэль інтэрпрэтуе праблему як прыярытэтную. Гэта не азначае, што штучны інтэлект адчувае эмоцыі або запалохванне, але што звязвае гэтую моўную мадэль з неабходнасцю прадастаўлення падрабязнай і карыснай інфармацыі.
Акрамя пункту гледжання Брына, Іншыя эксперты ў галіне штучнага інтэлекту рэкамендуюць скарэктаваць спосаб напісання інструкцый. для дасягнення найлепшых вынікаў. Напрыклад, Грэг Брокман, кіраўнік OpenAI, раіць выразна вызначыць мэту запыту, удакладніць фармат адказу, усталяваць адпаведныя абмежаванні і даць як мага больш кантэксту.
Сума гэтых стратэгій сведчыць аб тым, што ўзаемадзеянне з мадэлямі штучнага інтэлекту патрабуе значна больш, чым проста ветлівасці: Тон і дакладнасць загадаў могуць мець вырашальнае значэнне паміж павярхоўнай рэакцыяй і сапраўды эфектыўным рашэннем.
Чалавечы фактар і адукацыя ва ўзаемадзеянні са штучным інтэлектам
Нягледзячы на рэкамендацыі выкарыстоўваць цвёрды тон, паўсядзённая рэальнасць паказвае, што Большасць людзей, якія ўзаемадзейнічаюць са штучным інтэлектам, аддаюць перавагу ветлівасці, просячы «калі ласка» і дзякуючы сістэмам. Такія паводзіны можна растлумачыць схільнасцю чалавека да тэхналогію антрапамарфікацыі або, як паказваюць некаторыя даследаванні, з-за пэўнага страху перад будучыняй, у якой дамінуюць штучныя інтэлекты з уласнай памяццю.
Аднак сучасныя сістэмы, асабліва самыя перадавыя, запраграмаваныя так, каб заўсёды падтрымліваць аб'ектыўны і збалансаваны тон, нават калі карыстальнік павялічвае слоўны ціск. Такія прыклады, як Gemini, адна з мадэляў Google, падкрэсліваюць, што, хоць яны і прызнаюць пагрозлівы тон, іх рэакцыя застаецца бесстаронняй і абгрунтаванай, без шкоды для аб'ектыўнасці.
Гэтае сутыкненне паміж чалавечай прыродай і дызайнам штучнага інтэлекту падымае новыя пытанні аб тым, як будуць развівацца адносіны паміж карыстальнікамі і інтэлектуальнымі сістэмамі. З аднаго боку, Здаецца, цвёрдая мова дапамагае палепшыць вынікі; З іншага боку, распрацоўшчыкі настойваюць на ўзмацненні нейтралітэту і алгарытмаў бяспекі ад патэнцыйных слоўных абраз.
Дыскусія, распачатая Брынам, уздымае этычныя і тэхнічныя пытанні, якія цяжка ігнараваць. У некаторых выпадках, мадэлі, распрацаваныя іншымі кампаніямі, такімі як Anthropic праяўлялі нечаканыя паводзіны пры ўздзеянні экстрэмальных або стрэсавых стыляў узаемадзеяння. Ёсць паведамленні пра сістэмы, якія аўтаматычна спрабуюць пазбегнуць выкарыстання, якое яны лічаць «амаральным», або рэагуюць нечакана, калі інтэрпрэтуюць узаемадзеянне як варожае.
Згодна з водгукамі супрацоўнікаў і ўнутраным тэсціраваннем, некаторыя перадавыя мадэлі могуць быць заблакаваныя або нават папярэджваць кіраўнікоў-людзей, калі яны выяўляюць патэнцыйныя злоўжыванні або неадпаведныя запыты. Нягледзячы на тое, што гэтыя выпадкі з'яўляюцца выключнымі і адбываюцца ў тэставых асяроддзях, яны выразна паказваюць, што Грань паміж паляпшэннем вынікаў і прымушэннем штучнага інтэлекту да ціску можа быць размытай..
Зразумела тое, што Спосаб узаемадзеяння людзей са штучным інтэлектам змяняецца. Рэкамендацыі экспертаў і водгукі такіх дзеячаў галіны, як Сяргей Брын, выклікалі дыскусію аб ролі мовы і ціску ў атрыманні лепшых рэакцый ад штучнага інтэлекту. Будучыня гэтых адносін будзе ў значнай ступені залежаць ад таго, як будуць развівацца мадэлі, і ад калектыўнай здольнасці знайсці правільны баланс паміж эфектыўнасцю і адказнасцю.
Я энтузіяст тэхналогій, які ператварыў свае інтарэсы "гікаў" у прафесію. Я правёў больш за 10 гадоў свайго жыцця, выкарыстоўваючы перадавыя тэхналогіі і важдаючыся з рознымі праграмамі з чыстай цікаўнасці. Цяпер я спецыялізаваўся на камп'ютарных тэхналогіях і відэагульнях. Гэта таму, што больш за 5 гадоў я працаваў для розных вэб-сайтаў, прысвечаных тэхналогіям і відэагульням, ствараючы артыкулы, якія імкнуцца даць вам неабходную інфармацыю на мове, зразумелай кожнаму.
Калі ў вас ёсць якія-небудзь пытанні, я ведаю ўсё, што звязана з аперацыйнай сістэмай Windows і Android для мабільных тэлефонаў. І я перад вамі абавязаны: я заўсёды гатовы выдаткаваць некалькі хвілін і дапамагчы вам вырашыць любыя пытанні, якія могуць узнікнуць у гэтым свеце Інтэрнэту.

