GPT-4.5 ületab palju Turingi testi: mida see verstapost tehisintellekti arengus tähendab?

Viimane uuendus: 07/04/2025

  • GPT-4.5 suutis muudetud Turingi testis veenda 73% osalejatest, et see oli inimene.
  • Eksperimendist selgus, et tehisintellekti edu sõltub suuresti juhistest ja "isiksuse" omaksvõtmisest.
  • Teised mudelid, nagu LLaMa-3.1, saavutasid madalama edukuse ja ilma kohandamiseta langesid tulemused märkimisväärselt.
  • Uuring tõstatab küsimusi tehisintellekti praeguste piiride ja selle kasvava vestlusrealismiga seotud riskide kohta.
GPT-4.5 läbib turing-0 testi

Kas suudaksite vahet teha vestlusel tõelise inimesega ja masinaga? Küsimus, mille esitas esimest korda rohkem kui seitse aastakümmet tagasi Alan Turing, on taas leidnud tõmbejõudu pärast hiljutist katset, mis katsetas tehisintellekti kõige arenenumaid mudeleid keerulises kontekstis.

San Diego California ülikooli teadlased on läbi viinud a uuring, mis seab väljakutse meie võimele teha vahet inimlikul ja tehislikull. Eksperimendi keskmes mudel GPT-4.5 OpenAI-l mitte ainult ei õnnestunud teatud tingimustel Turingi testi läbida, vaid Teda peeti inimeseks isegi sagedamini kui pärisinimesteks.

Eksperiment rangetes tingimustes

AI intervjuud Turingi testi ajal

Teadlaste Cameron Jonesi ja Benjamin Bergeni juhitud uuring. keskendus klassikalise Turingi testi muudetud versioonile, kus osales üle 300 inimese, sealhulgas ülikoolide üliõpilased ja veebiplatvormide kasutajad. Viieminutilise sessiooni jooksul pidas iga osaleja korraga kaks vestlust: ühe inimese ja teise tehisintellekti süsteemiga. Lõpuks Nad pidid otsustama, kes vestluskaaslastest on inimene.

Eksklusiivne sisu – klõpsake siin  Kuidas dinosaurused välja surid

Tulemus oli silmatorkav: mudelit GPT-4.5 tajuti inimesena 73% juhtudest kui talle määrati määratletud isiksus – näiteks digitaalkultuuri tundva noormehe oma. See protsent ei ületanud mitte ainult statistilist läve testi läbituks tunnistamiseks, vaid isegi tõeliste inimeste võimet selles katses inimesena näida. See lähenemine tugevdab ideed, kuidas la tehisintellekt on viimastel aastakümnetel arenenud.

Kui aga tehisintellektil ei olnud konkreetset isiksust ja tal paluti ilma täiendava õhutamiseta lihtsalt inimesena näida, langes selle tõhusus 36%. See rõhutab konteksti ja isikupärastamise tähtsus juhistes (viipades) antud keelemudelitele.

Mudelite ja ootamatute tulemuste võrdlus

Erinevad AI mudelid testimisel

Koos GPT-4.5-ga hõlmas katse ka teisi mudeleid, nagu LLaMa-3.1-405B Meta, mis saavutas 56% täpsuse, kui sellele omistati ka väljamõeldud isiksus. Kuigi see näitaja on madalam kui GPT-4.5 oma, ületab see siiski võimaluse. Seevastu teised versioonid, nagu GPT-4o või 60ndatest pärit veteranvestlusbot ELIZA, ei ületanud vastavalt 21% ja 23%, mis teeb selgeks vahemaa praeguste ja primitiivsete tehnoloogiate vahel.

Need tulemused näitavad, et AI edukus sellises ülesandes nagu Turingi test sõltub palju rohkem sellest, kuidas seda juhendatakse, kui mudelist endast. Võti on võtta endale usaldusväärne roll, mitte simuleerida teadlikult inimese intelligentsust. Kui soovite süveneda sellesse, kuidas arvuti Aja jooksul leiate huvitavat teavet.

Eksklusiivne sisu – klõpsake siin  OpenAI püüab tugevdada oma eetilist missiooni ja määratleb oma struktuuri ümber avalikes huvides tegutseva korporatsioonina (PBC).

Lisaks leiti, et isegi keerukate juhiste korral ei suutnud mõned mudelid piisavalt veenvat vestlust pidada. GPT-4o tunnistas, et on AI, ilma vaidlustamata, mis kaotas inimvestluskaaslaste silmis kiiresti usaldusväärsuse.

Petta või mõelda? Turingi testi vaidlus

Arutelu kognitsioonist tehisintellektis

Turingi testi läbimine ei tähenda, et tehisintellekt mõistab, mida ta ütleb, või on selle sõnadest teadlik. Siin on üks suurepäraseid arutelusid ekspertide vahel. Kuigi mõned tähistavad seda saavutust inimkäitumise simuleerimisel olulise edusammuna, arvavad teised seda Seda tüüpi testid ei ole enam usaldusväärsed tehissüsteemi "tegeliku intelligentsuse" mõõtmiseks.

Eksperdid, nagu Google'i insener François Chollet, on seda rõhutanud Turingi test on pigem filosoofiline eksperiment kui praegu kasulik mõõtmine. Selle vaate kohaselt ei tähenda see, et tehisintellekt meid petab, et see arutleb või mõistab maailma sügavalt. Pigem kasutab see usaldusväärsete vastuste loomiseks miljonitest tekstidest õpitud mustreid. Selle valdkonna paremaks mõistmiseks võite küsida, kes on AI asutaja.

Murettekitav ei ole niivõrd see, mida need tehisintellektid suudavad, vaid see, mida me usume, et nad teevad. Inimese kalduvus vestlussüsteeme antropomorfiseerida, nagu juba 60ndatel ELIZA puhul, ei näi olevat aja jooksul kuhugi kadunud. Tänapäeval võimendatakse seda nähtust palju keerukamate mudelitega.

Liiga inimlikuna kõlava tehisintellekti rakendused ja riskid

Asjaolu, et tehisintellekt võib lühikese vestlusega inimese jaoks üle minna, pakub võimalusi, aga ka kujutab endast olulisi riske turvalisuse, hariduse ja sotsiaalsete suhete osas.

  • Identiteedipettus: veenvat tehisintellekti saaks kasutada kelmuse või sotsiaalse manipuleerimise kampaaniates.
  • Desinformatsioon: Inimkõne genereerimiseks võimelised mudelid võivad olla tõhusad vahendid võltsuudiste manipuleerimiseks või levitamiseks.
  • Töö automatiseerimine: Sellised valdkonnad, nagu klienditeenindus või tehniline tugi, võiks asendada kõnealuste AI-dega, mis mõjutavad inimeste tööhõivet.
  • Haridus ja hindamine: Selle tuvastamine, kas teksti on kirjutanud inimene või tehisintellekt, muutub keeruliseks ülesandeks, millel on tagajärjed akadeemilises valdkonnas.
Eksklusiivne sisu – klõpsake siin  Bravo Booster

Teadlased on hoiatanud ka selle eest, kuidas Nende tehnoloogiate standardimine võib muuta nende tuvastamise keerulisemaks tulevikus. Kui harjume automatiseeritud süsteemidega suhtlema, võime end maha lasta, muutes need mudelid inimesest vestluskaaslasest eristamatuks, ilma et me sellest arugi saaksime.

Teine korduv murekoht on selle rakendamise eetika. Mil määral peaks tehisintellekt inimesena teesklema, teavitamata selle tehislikust olemusest? Kas peaks olema selged piirangud, kuidas ja millal seda reaalses kontekstis kasutada?

GPT-4.5 ei ole näidanud, et masinad mõtleksid nagu meie, kuid see on teinud selgeks, et nad võivad meid jäljendada viisil, mis muudab nende eristamise raskeks. See verstapost tähistab pöördepunkti mitte selle tõttu, mis masin on, vaid sellepärast, mis paneb meid küsima: meie enda ideed selle kohta, mida tähendab olla inimene digitaalajastul, kus tehislik sulandub tegelikkusega.

Jäta kommentaar