- GPT-4.5 успеа да убеди 73% од учесниците дека е човек во ревидираниот Тјуринг тест.
- Експериментот откри дека успехот на вештачката интелигенција во голема мера зависи од инструкциите и усвојувањето на „личноста“.
- Другите модели како LLaMa-3.1 добија пониски стапки на успех и без прилагодување, резултатите значително паднаа.
- Студијата покренува прашања за сегашните граници на вештачката интелигенција и ризиците поврзани со нејзиниот зголемен разговорен реализам.

Дали би можеле да направите разлика помеѓу разговор со вистински човек и машина? Прашањето, првпат поставено пред повеќе од седум децении од Алан Тјуринг, повторно се здоби со внимание по неодамнешниот експеримент кој ги тестираше најнапредните модели на вештачка интелигенција во предизвикувачки контекст.
Истражувачите од Универзитетот во Калифорнија, Сан Диего извршија а студија која ја предизвикува нашата способност да правиме разлика помеѓу она што е човечко и она што е вештачкол. Во центарот на експериментот, моделот GPT-4.5 на OpenAI не само што успеа да го помине Туринг тестот под специфични услови, туку Тој дури беше идентификуван како човек почесто отколку самите вистински луѓе.
Експеримент под ригорозни услови
Студијата, предводена од истражувачите Камерон Џонс и Бенџамин Берген, фокусирани на изменета верзија на класичниот Тјуринг тест, каде што учествуваа повеќе од 300 луѓе, вклучувајќи студенти и корисници на онлајн платформи. Во текот на петминутните сесии, секој учесник истовремено одржа два разговори: еден со човек и еден со систем за вештачка интелигенција. На крајот, Требаше да проценат кој од соговорниците е човек.
Резултатот беше впечатлив: моделот GPT-4.5 беше перципиран како човек во 73% од случаите кога му беше доделена дефинирана личност - на пример, онаа на млад човек со познавање на дигиталната култура. Овој процент го надмина не само статистичкиот праг да се смета дека тестот е поминат, туку дури и способноста на вистинските луѓе да изгледаат како луѓе во овој експеримент. Овој пристап ја зајакнува идејата за тоа како la вештачка интелигенција еволуираше во последните децении.
Спротивно на тоа, кога вештачката интелигенција немаше специфична личност и едноставно беше побарано да изгледа како човек без дополнително поттикнување, нејзината ефикасност падна на 36%. Ова го нагласува важноста на контекстот и персонализацијата во инструкциите (инструкции) дадени на јазичните модели.
Споредба помеѓу модели и неочекувани резултати
Заедно со GPT-4.5, експериментот вклучи и други модели како на пр LLaMa-3.1-405B Мета, кој постигна стапка на точност од 56% кога исто така беше дадена измислена личност. Иако оваа бројка е помала од онаа на GPT-4.5, сепак е над шансите. Спротивно на тоа, другите верзии како што се GPT-4o или ветеранскиот четбот ELIZA, од 60-тите, не надминуваа 21% и 23% соодветно, со што е јасно растојанието помеѓу сегашните и примитивните технологии.
Овие резултати покажуваат дека успехот на вештачката интелигенција во задача како што е Тјуринг тестот зависи многу повеќе од тоа како е наложено отколку од самиот модел. Клучот е да се преземе веродостојна улога, а не свесно да се симулира човечката интелигенција. Ако сакате да навлезете подлабоко во тоа како компјутер Со текот на времето, ќе најдете интересни информации.
Понатаму, беше откриено дека дури и со софистицирани упатства, некои модели не можеа да одржат доволно убедлив разговор. GPT-4o призна дека е вештачка интелигенција без да биде предизвикан, што брзо го изгуби кредибилитетот кај човечките соговорници.
Измами или размислува? Контроверзноста на Тјуринг Тест
Полагањето на Тјуринг тестот не значи дека вештачката интелигенција разбира што вели или е свесна за неговите зборови. Тука лежи една од одличните дискусии меѓу експертите. Додека некои го слават ова достигнување како значаен напредок во симулацијата на човечкото однесување, други го сметаат тоа Овој тип на тест повеќе не е сигурен за мерење на „вистинската интелигенција“ на вештачки систем.
Експертите како Франсоа Шоле, инженер на Google, го истакнаа тоа Тјуринг тестот е повеќе филозофски експеримент отколку моментално корисно мерење. Според ова гледиште, само затоа што вештачката интелигенција нè мами не значи дека таа резонира или има длабоко разбирање за светот. Наместо тоа, тој користи модели научени од милиони текстови за да изгради веродостојни одговори. За подобро да го разберете ова поле, можете да се консултирате кој е основач на АИ.
Загрижувачката работа, значи, не е толку многу што можат да направат овие вештачки интелигентни, туку она што ние веруваме дека го прават. Човечката тенденција да ги антропоморфизира разговорните системи, како што веќе беше случајот со ЕЛИЗА во 60-тите години, се чини дека не исчезна со текот на времето. Денес феноменот е зголемен со многу пософистицирани модели.
Апликации и ризици од вештачка интелигенција што звучи премногу човечки
Фактот дека вештачката интелигенција може да помине за човек во краток разговор претставува можности, но исто така претставува значителен ризик во однос на безбедноста, образованието и социјалните односи.
- Измама за идентитет: убедлива вештачка интелигенција може да се користи во кампањи за измама или социјален инженеринг.
- Дезинформации: Моделите способни да генерираат човечки говор би можеле да бидат ефективни алатки за манипулирање или ширење лажни вести.
- Работна автоматизација: Секторите како што се услуги на клиентите или техничка поддршка може да се заменат со овие разговорни ВИ, што ќе влијае на вработувањето на луѓето.
- Образование и евалуација: Откривањето дали текстот е напишан од лице или од вештачка интелигенција станува комплицирана задача, со последици на академската област.
Истражувачите исто така предупредија за тоа како Стандардизацијата на овие технологии може да го отежне нивното откривање. во иднина. Како што се навикнуваме на интеракција со автоматизирани системи, можеби ќе ја изневериме нашата стража, што ќе им олесни на овие модели да не се разликуваат од човечки соговорник без ние да го сфатиме тоа.
Друга загриженост што се повторува е етиката на неговото спроведување. До кој степен треба вештачката интелигенција да се преправа дека е човек без да информира за нејзината вештачка природа? Дали треба да има јасни ограничувања за тоа како и кога може да се користи во реални контексти?
GPT-4.5 не покажа дека машините размислуваат како нас, но јасно покажа дека можат да не имитираат на начин што го отежнува нивното разликување. Оваа пресвртница означува пресвртница, не поради тоа што е машината, туку поради она што нè тера да се сомневаме: нашите сопствени идеи за тоа што значи да се биде „човек“ во дигитална ера каде вештачкото се спојува со реалното.
Јас сум технолошки ентузијаст кој своите „гикови“ интереси ги претвори во професија. Поминав повеќе од 10 години од мојот живот користејќи најсовремена технологија и непречено со сите видови програми од чиста љубопитност. Сега сум специјализиран за компјутерска технологија и видео игри. Тоа е затоа што повеќе од 5 години пишувам за различни веб-локации за технологија и видео игри, создавајќи статии кои се обидуваат да ви ги дадат потребните информации на јазик што е разбирлив за секого.
Ако имате прашања, моето знаење се движи од се што е поврзано со оперативниот систем Виндоус како и Андроид за мобилни телефони. И мојата посветеност е кон вас, јас сум секогаш подготвен да потрошам неколку минути и да ви помогнам да ги решите сите прашања што може да ги имате во овој интернет свет.


