Dans un article de recherche pré-impression intitulé « GPT-4 passe-t-il le test de Turing? », Deux chercheurs de l’université de Californie à San Diego ont opposé le modèle de langage IA GPT-4 d’OpenAI à des participants humains, GPT-3.5 et ELIZA pour voir lequel pourrait leur faire croire qu’il était humain avec le plus grand succès. Mais en cours de route, l’étude, qui n’a pas fait l’objet d’une évaluation par les pairs, a montré que les participants humains ont correctement identifié d’autres humains à seulement 63% des interactions – et qu’un programme informatique des années 1960 a surpassé le modèle IA qui alimente la version gratuite de ChatGPT. Même avec des limitations et des avertissements, que nous aborderons ci-dessous, le papier présente une comparaison intéressante entre les approches de modèle IA et soulève de nouvelles questions quant à l’utilisation du test de Turing pour évaluer les performances du modèle IA. Le mathématicien et informaticien britannique Alan Turing a d’abord conçu le test de Turing comme « The Imitation Game » en 1950. Depuis, il est devenu un benchmark célèbre mais controversé pour déterminer la capacité d’une machine à imiter une conversation humaine. Dans les versions modernes du test, un juge humain parle généralement à un autre humain ou à un chatbot sans savoir lequel est lequel. Si le juge ne peut pas fiablement distinguer le chatbot de l’humain à un certain pourcentage de fois, on dit alors que le chatbot a réussi le test. Le seuil de réussite au test est subjectif, il n’y a donc jamais eu de large consensus sur ce qui constituerait un taux de réussite satisfaisant. Dans l’étude récente, publiée sur arXiv à la fin du mois d’octobre, les chercheurs de l’université de Californie à San Diego, Cameron Jones (étudiant en sciences cognitives) et Benjamin Bergen (professeur au département de sciences cognitives de l’université), ont mis en place un site Web intitulé turingtest.live, où ils ont hébergé une version à deux joueurs du test de Turing sur Internet dans le but de voir à quel point GPT-4, sous diverses formes, pouvait convaincre les gens qu’il était humain. Grâce au site, des interrogateurs humains ont interagi avec divers « témoins IA » représentant soit d’autres humains, soit des modèles IA tels que le GPT-4 mentionné précédemment, le GPT-3.5 et l’ELIZA, un programme de conversation basé sur des règles des années 1960. Les deux participants dans les matchs humains étaient affectés au hasard aux rôles d’interrogateur et de témoin. Les témoins devaient convaincre l’interrogateur qu’ils étaient humains. Les joueurs appariés avec des modèles IA étaient toujours des interrogateurs.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)