- Sergey Brin pêşniyar dike ku modelên AI çêtir bersivê didin talîmatên hişk an jî tewra gefxwar.
- Ev diyarde bi qalibên îstatîstîkî yên ku di dema perwerdehiya modelê de têne fêr kirin ve girêdayî ye.
- Pispor û kesayetên pîşesaziyê pêşniyar dikin ku armancên zelal werin danîn û çarçoveyek were zêdekirin da ku bersivên AI-ê çêtir bibin.
- Nîqaşa li ser vê stratejiyê pirsên nû der barê têkiliya di navbera mirovan û pergalên aqilmend de derdixe holê.

Zekaya sûnî bûye protagonîstê bêguman ê rewşa teknolojîk û civakî ya heyî. Lêbelê, pratîkên çêtirîn ji bo têkiliyê bi van pergalan re hîn jî nakok in. Şîroveyeke dawî ji aliyê Sergey Brin, hev-damezrînerê Google, careke din mijarek hem balkêş hem jî nakokbar anî rojevê: Ma modelên AI bi rastî çêtir performansê dikin dema ku ew di rêwerzên ku distînin de 'gefan' tespît dikin?
Dûr ji formulên dostane yên ku gelek bikarhêner pê re bi alîkarên dîjîtal re diaxivin, Brin pêşniyar kiriye ku tonek rasterast, hişk, an tewra fermanî jî dê AI-ê teşwîq bike ku bersivên bêkêmasîtir pêşkêş bike.. Ev eşkerekirina neçaverêkirî di civakê de bûye sedema pêlek reaksiyonan, ji matmayîn, îronî û fikaran.
Li gorî Brin, Kilît di awayê ku pergal hatine perwerdekirin de ye: bi mîlyonan nivîs û danûstandinan ku her tiştî dihewîne, ji daxwazên nazik bigire heya talîmatên zelal. Analîza îstatîstîkî nîşan dide ku fermanên bi dengek lezgîn Ew bi gelemperî bi karên ku girîngtir in re têkildar in, bi vî awayî bersivên rasttir ji aqilê sûnî teşwîq dike.
Çima AI çêtir bersivê dide hişkbûnê?
Brin dibêje ku ev ne meseleya pergalên 'gefdar' e, lê belê meseleya rêwerz çawa têne çêkirin. Dema ku bikarhêner hevokên wekî "niha bike" an "rasterast bersiv bide" bi kar tîne, model pirsgirêkê wekî pêşîniyek şîrove dike. Ev nayê wê wateyê ku AI hestên xwe hene an jî tirsonek e, lê ew e wê şêwaza zimanî bi pêwîstiya peyda kirina agahdariya berfireh û kêrhatî ve girêdide.
Ji bilî perspektîfa Brin, Pisporên din ên di warê zekaya sûnî de pêşniyar dikin ku awayê nivîsandina talîmatan were sererast kirin. ji bo encamên çêtirîn. Mesela, Greg Brockman, rêveberekî OpenAI, şîret dike ku armanca fermanê bi zelalî were destnîşankirin, formata bersivê were destnîşankirin, sînor an astengiyên têkildar werin danîn, û bi qasî ku pêkan be çarçoveyek were peyda kirin.
Bi berhevkirina van stratejiyan, em dikarin bibêjin ku têkiliya bi modelên AI re ji nezaketê pir zêdetir tiştan dihewîne: Deng û rastbûna fermanan dikare ferqê çêbike di navbera bersiveke rûberî û çareseriyeke bi rastî bi bandor de.
Faktora mirovî û perwerdehiyê di têkiliya bi AI re
Her çiqas pêşniyarên bikaranîna tonên hişk werin kirin jî, rastiya rojane nîşan dide ku Piraniya kesên ku bi AI re têkilî datînin nezaketê tercîh dikin, daxwaza tiştan "ji kerema xwe" û spasiya sîsteman kirin. Ev tevger dikare bi meyla mirovan a ji bo ravekirinê were kirin. teknolojiya antropomorfîzekirinê yan jî, wekî ku hin lêkolîn pêşniyar dikin, ji ber tirsek diyarkirî ji pêşerojek ku ji hêla aqilê sûnî ve bi bîranînên xwe ve tê serdest kirin.
Lêbelê, sîstemên heyî, nemaze yên herî pêşketî, hatine bernamekirin ku her gav tonek objektîf û hevseng biparêzin, her çend bikarhêner zexta devkî zêde bike jî. Mînakên wekî Gemini, yek ji modelên Google-ê, destnîşan dikin ku her çend ew tonê tehdîdkar qebûl dikin jî, bersiva wan bêalî û maqûl dimîne, bêyî ku objektîfbûnê têk bibe.
Ev pevçûna di navbera xwezaya mirovan û sêwirana AI de pirsên nû derdixe holê ka têkiliya di navbera bikarhêneran û pergalên jîr de dê çawa pêş bikeve. Ji aliyekî ve, Zimanekî hişk xuya dike ku encaman baştir dike; Ji aliyekî din ve, pêşdebir israr dikin ku bêalîbûn û algorîtmayên ewlehiyê li dijî îstismara devkî ya potansiyel xurt bikin.
Nîqaşa ku ji hêla Brin ve hatiye vekirin, pirsên exlaqî û teknîkî derdixe holê ku zehmet e ku meriv wan paşguh bike. Di hin rewşan de, modelên ku ji hêla pargîdaniyên din ên wekî Anthropic ve hatine pêşve xistin dema ku rastî şêwazên danûstendinê yên tund an stresdar hatine, reftarên nediyar nîşan dane. Raport hene ku sîstem bixweber hewl didin ku ji karanînên ku ew "neexlaqî" dibînin dûr bisekinin, an jî heke ew danûstendinê wekî dijminane şîrove bikin, bi rengek nediyar bersiv didin.
Li gorî şahidiyên karmendan û ceribandinên navxweyî, hin modelên pêşketî dikarin werin astengkirin an jî ger rêveberên mirovî îstismar an daxwazên ne guncaw bibînin, dikarin werin hişyarkirin. Her çend ev rewş îstîsnayî bin û di hawîrdorên ceribandinê de çêbibin jî, ew eşkere dikin ku Xeta di navbera baştirkirina encaman û zorê kirina AI-ê bi rêya zextê de dikare nezelal be..
Tiştê eşkere ew e ku Awayê ku mirov bi AI re têkilî datînin diguhere. Pêşniyar û şahidiyên pisporan ji kesayetên pîşesaziyê yên wekî Sergey Brin, li ser rola ziman û zextê di wergirtina bersivên çêtir ji AI de nîqaşek derxistiye holê. Pêşeroja vê têkiliyê dê bi giranî bi pêşveçûna modelan û bi şiyana kolektîf a dîtina hevsengiya rast di navbera bandorbûn û berpirsiyariyê de ve girêdayî be.
Ez dilşewatekî teknolojiyê me ku berjewendiyên xwe yên "geek" veguherandiye pîşeyekê. Min zêdetirî 10 sal ji jiyana xwe bi karanîna teknolojiya pêşkeftî derbas kir û ji meraqek paqij bi her cûre bernameyan ve mijûl kir. Niha ez di teknolojiya kompîturê û lîstikên vîdyoyê de pispor bûm. Ji ber ku ji 5 salan zêdetir e ku ez ji bo malperên cihêreng ên li ser teknolojî û lîstikên vîdyoyê dinivîsim, gotarên ku dixwazin agahdariya ku hûn hewce ne bi zimanek ku ji hêla her kesî ve tê fam kirin bidin we diafirînim.
Ger pirsên we hebin, zanîna min ji her tiştê ku bi pergala xebitandina Windows-ê ve û hem jî Android-ê ji bo têlefonên desta ve girêdayî ye diguhere. Û soza min ji we re ye, ez her gav amade me ku çend hûrdeman derbas bikim û ji we re bibe alîkar ku hûn di vê cîhana înternetê de pirsên we hebin çareser bikin.

