S’il y a une intelligence artificielle qui rend le test de Turing obsolète, qu’est-ce qui pourrait être mieux à la place?

Si une machine ou un programme IA égale ou dépasse l’intelligence humaine, cela signifie-t-il qu’il peut simuler parfaitement les humains? Si oui, alors qu’en est-il de la raison – notre capacité d’appliquer la logique et de penser rationnellement avant de prendre des décisions? Comment pourrions-nous même identifier si un programme IA peut raisonner? Pour essayer de répondre à cette question, une équipe de chercheurs a proposé un nouveau cadre qui fonctionne comme une étude psychologique pour les logiciels. «Ce test traite un programme ‘intelligent’ comme s’il était un participant à une étude psychologique et comporte trois étapes: (a) tester le programme dans un ensemble d’expériences examinant ses inférences, (b) tester sa compréhension de sa propre manière de raisonner, et (c) examiner, si possible, l’adéquation cognitive du code source pour le programme», soulignent les chercheurs. Ils suggèrent que les méthodes standard d’évaluation de l’intelligence d’une machine, telles que le test de Turing, ne peuvent vous dire si la machine est bonne à traiter des informations et à imiter les réactions humaines. Les générations actuelles de programmes IA, tels que LaMDA de Google et ChatGPT d’OpenAI, par exemple, ont atteint des résultats proches du test de Turing, mais les résultats du test ne impliquent pas que ces programmes puissent penser et raisonner comme les humains. C’est pourquoi le test de Turing n’est peut-être plus pertinent, et il y a un besoin de nouvelles méthodes d’évaluation qui pourraient évaluer efficacement l’intelligence des machines, selon les chercheurs. Ils affirment que leur cadre pourrait être une alternative au test de Turing. «Nous proposons de remplacer le test de Turing par un test plus ciblé et plus fondamental pour répondre à la question: les programmes raisonnent-ils de la même manière que les humains?», Arguing les auteurs de l’étude. Lors du test de Turing, les évaluateurs jouent différents jeux impliquant des communications basées sur le texte avec des humains et des programmes IA réels (machines ou chatbots). C’est un test aveugle, donc les évaluateurs ne savent pas s’ils textent avec un humain ou un chatbot. Si les programmes IA réussissent à générer des réponses semblables à celles des humains – à un tel point que les évaluateurs ont du mal à distinguer entre l’humain et le programme IA -, on considère que l’IA a réussi. Cependant, étant donné que le test de Turing repose sur une interprétation subjective, ces résultats sont également subjectifs.

Share the Post: