GPT-4.5 Тьюринг сынағынан сәтті өтті: бұл кезең жасанды интеллект эволюциясы үшін нені білдіреді?

Соңғы жаңарту: 07/04/2025

  • GPT-4.5 қайта қаралған Тьюринг тестінде қатысушылардың 73% адам екеніне сендіре алды.
  • Эксперимент AI-ның жетістігі көбінесе нұсқауларға және «тұлғаны» қабылдауға байланысты екенін көрсетті.
  • LLaMa-3.1 сияқты басқа модельдердің табыс көрсеткіштері төмен болды, ал жекелендірусіз нәтижелер айтарлықтай төмендеді.
  • Зерттеу жасанды интеллекттің қазіргі шектері және оның сөйлесу реализмінің артуына байланысты тәуекелдер туралы сұрақтарды көтереді.
GPT-4.5 Туринг-0 сынағынан өтеді

Нағыз адам мен машинамен сөйлесуді ажырата аласыз ба? Алғаш рет жетпіс жылдан астам уақыт бұрын Алан Тьюринг қойған сұрақ жасанды интеллекттің ең озық үлгілерін күрделі контексте сынақтан өткізген соңғы эксперименттен кейін қайтадан тартымдылыққа ие болды.

Калифорния университетінің зерттеушілері, Сан-Диего Адам мен жасанды ажырату қабілетімізге күмән келтіретін зерттеу.л. Эксперимент орталығында, GPT-4.5 үлгісі OpenAI арнайы шарттарда Тьюринг сынағынан өтіп қана қоймай, сонымен қатар Ол тіпті нақты адамдардан гөрі адам ретінде анықталды.

Қатаң жағдайларда эксперимент

Тьюринг сынағы кезіндегі AI сұхбаттары

Зерттеушілер Кэмерон Джонс пен Бенджамин Берген бастаған зерттеу, классикалық Тьюринг сынағының өзгертілген нұсқасына назар аударды, мұнда 300-ден астам адам, оның ішінде университет студенттері мен онлайн платформа пайдаланушылары қатысты. Бес минуттық сессиялар барысында әрбір қатысушы бір уақытта екі әңгіме жүргізді: бірі адаммен және екіншісі жасанды интеллект жүйесімен. Соңында, Олар әңгімелесушілердің қайсысы адам екенін анықтауы керек еді.

Эксклюзивті мазмұн - Мұнда басыңыз  Gemini Live өзінің нақты уақыттағы AI мүмкіндіктерін барлық Android телефондарына кеңейтеді.

Нәтиже таң қалдырды: GPT-4.5 моделі 73% жағдайда адам ретінде қабылданды оған белгілі бір тұлға берілгенде, мысалы, цифрлық мәдениетті білетін жас адамның тұлғасы. Бұл пайыз өткен сынақты қарастырудың статистикалық шегінен ғана емес, сонымен бірге осы экспериментте нағыз адамдардың адам болып көріну қабілетінен де асып түсті. Бұл тәсіл қалай деген идеяны нығайтады la жасанды интеллект соңғы онжылдықтарда дамыды.

Алайда, АИ-ге нақты тұлға берілмегенде және одан әрі шақырусыз адам болып көрінуді сұрағанда, оның тиімділігі 36% -ға дейін төмендеді. Бұл астын сызады Сұраулардағы мәтінмәннің және жекелендірудің маңыздылығы тілдік үлгілерге беріледі.

Модельдер мен күтпеген нәтижелер арасындағы салыстыру

Тестілеудегі әртүрлі AI үлгілері

GPT-4.5-пен қатар экспериментке басқа модельдер кірді, мысалы LLaMa-3.1-405B Meta, ол жалған тұлғамен қамтамасыз етілгенде 56% дәлдікке қол жеткізді. Бұл көрсеткіш GPT-4.5 көрсеткішінен төмен болғанымен, ол әлі де мүмкіндіктен жоғары. Керісінше, GPT-4o немесе 60 жылдардағы ардагер чат-бот ELIZA сияқты басқа нұсқалар сәйкесінше 21% және 23% аспады, бұл қазіргі және қарапайым технологиялар арасындағы алшақтықты айқындады.

Бұл нәтижелер Тьюринг сынағы сияқты тапсырмадағы AI-ның жетістігі модельдің өзінен гөрі оның нұсқаулығына байланысты екенін көрсетіңіз. Ең бастысы - адамның ақыл-ойын саналы түрде имитациялау емес, сенімді рөлді қабылдау. Егер сіз қалай жұмыс істейтінін тереңірек зерттегіңіз келсе компьютер Уақыт өте қызықты ақпарат табасыз.

Эксклюзивті мазмұн - Мұнда басыңыз  Google-ге фотосуретті қалай қоюға болады?

Сонымен қатар, күрделі нұсқаулардың өзінде кейбір модельдер жеткілікті сенімді әңгіме жүргізе алмайтыны анықталды. GPT-4o аз қиындықсыз AI екенін мойындады., ол адам әңгімелесушілерінің арасында сенімін тез жоғалтты.

Алдау үшін бе, әлде ойлау үшін бе? Тьюринг сынағы туралы қайшылық

AI-дағы таным туралы талқылау

Тьюринг сынағынан өту AI сіздің айтқаныңызды түсінеді немесе сіздің сөздеріңізді біледі дегенді білдірмейді. Міне, сарапшылар арасындағы тамаша пікірталастардың бірі. Кейбіреулер бұл жетістікті адам мінез-құлқын модельдеудегі елеулі жетістік ретінде атап өтсе, басқалары деп санайды Тесттің бұл түрі жасанды жүйенің «шынайы интеллектін» өлшеу үшін енді сенімді емес..

Мұны Google инженері Франсуа Чолле сияқты сарапшылар атап өтті Тьюринг сынағы қазіргі уақытта пайдалы өлшемнен гөрі философиялық эксперимент болып табылады.. Бұл көзқарасқа сәйкес, AI бізді алдайды, бұл оның себептерін немесе әлемді терең түсінетінін білдірмейді. Керісінше, ол ақылға қонымды жауаптар құру үшін миллиондаған мәтіндерден алынған үлгілерді пайдаланады. Бұл өрісті жақсырақ түсіну үшін кім екенін тексеруге болады AI негізін қалаушы.

Ендеше, алаңдататын нәрсе - бұл АИ-лер не істей алатыны емес, біздің ойымызша, олар не істейді. Адамның сөйлесу жүйелерін антропоморфизациялауға бейімділігі60 жылдардағы ЭЛИЗА сияқты, уақыт өте келе жоғалып кетпеген сияқты. Бүгінгі күні бұл құбылыс әлдеқайда күрделі модельдермен ұлғайтылған.

Тым адамға ұқсайтын AI қолданбалары мен қауіптері

AI адамға қысқа әңгімелесуде өтуі мүмкіншіліктерді ұсынады, сонымен қатар елеулі тәуекелдер тудырады қауіпсіздік, білім және әлеуметтік қатынастар тұрғысынан.

  • Жеке тұлғаны алдау: Сенімді AI алаяқтықта немесе әлеуметтік инженерлік науқандарда қолданылуы мүмкін.
  • Жалған ақпарат: Адамның сөйлеуін жасай алатын модельдер жалған жаңалықтарды манипуляциялау немесе таратудың тиімді құралы болуы мүмкін.
  • Еңбекті автоматтандыру: Тұтынушыларға қызмет көрсету немесе техникалық қолдау сияқты секторларды адамның жұмысқа орналасуына әсер ететін осы сөйлесетін АИ-мен ауыстыруға болады.
  • Білім беру және бағалау: Мәтінді адам немесе AI жазғанын анықтау күрделі тапсырмаға айналады, оның салдары академиялық салада болады.
Эксклюзивті мазмұн - Мұнда басыңыз  2022 жылдың сәуірінде Джованниді қалай жеңуге болады

Зерттеушілер бұл туралы да ескертті Бұл технологияларды стандарттау оларды анықтауды қиындатуы мүмкін. болашақта. Автоматтандырылған жүйелермен өзара әрекеттесуге дағдыланған сайын, біз сақтықты төмендетеміз, бұл модельдердің адам әңгімелесушіден айырмашылығы жоқ болуын жеңілдетеміз.

Тағы бір қайталанатын мәселе - оны жүзеге асыру этикасы. Жасанды табиғатын ашпай-ақ, AI қаншалықты адам болып көрінуі керек? Оны нақты өмір контекстінде қалай және қашан қолдануға болатынына нақты шектеулер болуы керек пе?

GPT-4.5 машиналардың біз сияқты ойлайтынын көрсетпеді, бірақ олар бізге еліктеп, оларды ажыратуды қиындататыны анық болды. Бұл кезең бетбұрысты кезеңді білдіреді, бұл машинаның не екеніне байланысты емес, бірақ ол бізді күмәндандыратын нәрсеге байланысты: жасанды шындықпен біріктірілген цифрлық дәуірде «адам болу» деген нені білдіретіні туралы өз идеяларымыз.