- GPT-4.5 a réussi à convaincre 73 % des participants qu'il était humain dans un test de Turing révisé.
- L’expérience a révélé que le succès de l’IA dépend en grande partie des instructions et de l’adoption d’une « personnalité ».
- D’autres modèles comme LLaMa-3.1 ont eu des taux de réussite plus faibles et, sans personnalisation, les résultats ont chuté de manière significative.
- L’étude soulève des questions sur les limites actuelles de l’intelligence artificielle et les risques associés à son réalisme conversationnel croissant.

Seriez-vous capable de faire la différence entre une conversation avec un vrai humain et une machine ? La question, posée pour la première fois il y a plus de sept décennies par Alan Turing, a gagné en popularité suite à une expérience récente qui a testé les modèles les plus avancés de l’intelligence artificielle dans un contexte difficile.
Des chercheurs de l'Université de Californie à San Diego ont mené une Une étude qui remet en question notre capacité à distinguer l’humain de l’artificiel.l. Au centre de l'expérience, le modèle GPT-4.5 OpenAI a non seulement réussi à passer le test de Turing dans des conditions spécifiques, mais Il a même été identifié comme humain plus souvent que les personnes réelles elles-mêmes.
Une expérience dans des conditions rigoureuses
L'étude, dirigée par les chercheurs Cameron Jones et Benjamin Bergen, axé sur une version modifiée du test de Turing classique, auquel ont participé plus de 300 personnes, dont des étudiants universitaires et des utilisateurs de plateformes en ligne. Au cours de séances de cinq minutes, chaque participant a tenu simultanément deux conversations : une avec un humain et une avec un système d’intelligence artificielle. À la fin, Ils devaient juger lequel des interlocuteurs était humain.
Le résultat fut frappant : Le modèle GPT-4.5 a été perçu comme humain dans 73 % des cas lorsqu’on lui a attribué une personnalité définie, par exemple celle d’un jeune connaissant la culture numérique. Ce pourcentage dépassait non seulement le seuil statistique permettant de considérer le test comme réussi, mais aussi la capacité des vrais humains à apparaître comme humains dans cette expérience. Cette approche renforce l’idée de la façon dont la intelligence artificielle a évolué au cours des dernières décennies.
Cependant, lorsque l’IA n’a pas reçu de personnalité spécifique et qu’on lui a simplement demandé d’apparaître humaine sans autre incitation, son efficacité a chuté à 36 %. Cela souligne le Importance du contexte et de la personnalisation dans les invites donné aux modèles de langage.
Comparaison entre modèles et résultats inattendus
En plus de GPT-4.5, l'expérience comprenait d'autres modèles tels que LLaMa-3.1-405B de Meta, qui a atteint un taux de précision de 56 % lorsqu'il était également doté d'une personnalité fictive. Bien que ce chiffre soit inférieur à celui de GPT-4.5, il reste supérieur au hasard. En revanche, d'autres versions comme GPT-4o ou le chatbot vétéran ELIZA, des années 60, ne dépassaient pas respectivement 21% et 23%, mettant en évidence l'écart entre les technologies actuelles et primitives.
Cela résulte montrent que le succès d'une IA dans une tâche comme le test de Turing dépend beaucoup plus de la manière dont elle est instruite que du modèle lui-même. La clé est d’adopter un rôle crédible, et non de simuler consciemment l’intelligence humaine. Si vous souhaitez approfondir la manière dont le computadora Au fil du temps, vous trouverez des informations intéressantes.
De plus, il a été constaté que même avec des instructions sophistiquées, certains modèles étaient incapables de maintenir une conversation suffisamment convaincante. GPT-4o a admis être une IA avec peu de défis., qui a rapidement perdu sa crédibilité auprès des interlocuteurs humains.
Tromper ou penser ? La controverse du test de Turing
Réussir le test de Turing n’implique pas qu’une IA comprenne ce que vous dites ou soit consciente de vos paroles. C’est là que se trouve l’une des grandes discussions entre experts. Alors que certains célèbrent cette réalisation comme une avancée significative dans la simulation du comportement humain, d’autres considèrent que Ce type de test n’est plus fiable pour mesurer la « véritable intelligence » d’un système artificiel..
Des experts comme François Chollet, ingénieur chez Google, ont souligné que Le test de Turing est davantage une expérience philosophique qu’une mesure actuellement utile.. Selon ce point de vue, ce n’est pas parce qu’une IA nous trompe qu’elle raisonne ou qu’elle a une compréhension profonde du monde. Au contraire, il exploite des modèles appris à partir de millions de textes pour construire des réponses plausibles. Pour mieux comprendre ce domaine, vous pouvez vérifier qui est le fondateur de l'IA.
Ce qui est inquiétant, ce n’est donc pas tant ce que ces IA peuvent faire, mais ce que nous pensons qu’elles font. La tendance humaine à anthropomorphiser les systèmes conversationnels, comme ce fut le cas avec ELIZA dans les années 60, ne semble pas avoir disparu au fil du temps. Aujourd’hui, le phénomène est amplifié par des modèles beaucoup plus sophistiqués.
Applications et risques d'une IA qui sonne trop humaine
Le fait qu'une IA puisse se faire passer pour un humain dans une courte conversation présente des opportunités, mais aussi présente des risques importants en termes de sécurité, d’éducation et de relations sociales.
- Usurpation d'identité: L’IA convaincante pourrait être utilisée dans des campagnes d’escroquerie ou d’ingénierie sociale.
- Désinformation: Les modèles capables de générer la parole humaine pourraient être des outils efficaces pour manipuler ou diffuser de fausses nouvelles.
- Automatisation du travail : Des secteurs tels que le service client ou le support technique pourraient être remplacés par ces IA conversationnelles, affectant ainsi l’emploi humain.
- Éducation et évaluation : Détecter si un texte a été écrit par une personne ou une IA devient une tâche compliquée, avec des conséquences dans le domaine académique.
Les chercheurs ont également mis en garde contre la manière dont La standardisation de ces technologies pourrait rendre leur détection plus difficile. à l'avenir. À mesure que nous nous habituons à interagir avec des systèmes automatisés, nous pouvons baisser notre garde, ce qui rend plus facile pour ces modèles de devenir indiscernables d’un interlocuteur humain sans même que nous nous en rendions compte.
Une autre préoccupation récurrente est l’éthique de sa mise en œuvre. Dans quelle mesure une IA devrait-elle prétendre être humaine sans révéler sa nature artificielle ? Devrait-il y avoir des limites claires quant à la manière et au moment où il peut être utilisé dans des contextes réels ?
GPT-4.5 n'a pas montré que les machines raisonnent comme nous, mais il a clairement montré qu’ils peuvent nous imiter d’une manière qui rend difficile de les distinguer. Cette étape marque un tournant, non pas à cause de ce qu’est la machine, mais à cause de ce qu’elle nous fait remettre en question : nos propres idées sur ce que signifie être « humain » à l’ère numérique où l’artificiel fusionne avec le réel.
Je suis un passionné de technologie qui a fait de ses intérêts de « geek » un métier. J'ai passé plus de 10 ans de ma vie à utiliser des technologies de pointe et à bricoler toutes sortes de programmes par pure curiosité. Aujourd'hui, je me spécialise dans l'informatique et les jeux vidéo. En effet, depuis plus de 5 ans, j'écris pour différents sites Web sur la technologie et les jeux vidéo, créant des articles qui cherchent à vous donner les informations dont vous avez besoin dans un langage compréhensible par tous.
Si vous avez des questions, mes connaissances s'étendent de tout ce qui concerne le système d'exploitation Windows ainsi qu'Android pour les téléphones mobiles. Et mon engagement est envers vous, je suis toujours prêt à consacrer quelques minutes et à vous aider à résoudre toutes les questions que vous pourriez avoir dans ce monde Internet.


