Pourquoi est-il important de se rappeler que l’IA n’est pas humaine?

Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Pour certains experts, il s’agit d’un présage de superintelligence, susceptible de bouleverser la civilisation – ou de la mettre simplement fin. D’autres affirment qu’il n’est rien de plus qu’une version élaborée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indicateur fiable de la présence d’un esprit rationnel. Avant les modèles de langage tels que ChatGPT, aucun artefact de production de langage n’avait jamais autant de flexibilité linguistique qu’un bébé. Maintenant, lorsque nous essayons de comprendre de quel type de chose il s’agit, nous faisons face à un défi philosophique dérangeant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque vous converser avec des modèles de langage, il est difficile de surmonter l’impression que vous êtes en train d’engager une autre être rationnel. Mais cette impression ne doit pas être fiable. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, connaître la signification des mots et les règles de combinaison n’est pas suffisant pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est d’une utilité sans faille. Dans un monde envahi par de grands modèles de langage, cependant, il a le potentiel de tromper. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous pouvons être coincés en nous reliant sur notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une banque de données sans âme. Une étude récente, par exemple, a montré que les appels émotionnellement chargés sont de meilleurs déclencheurs que les demandes émotionnellement neutres. Raisonner comme si les chatbots avaient des vies mentales humaines est une façon utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur la façon dont ils fonctionnent. Ce genre de prétention anthropomorphe peut entraver la science basée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a argué ailleurs, la Commission européenne a fait une erreur en choisissant la création d’une IA fiable comme l’un des objectifs centraux de son nouveau projet de loi sur l’IA. Être fiable dans les relations humaines signifie plus que de simplement répondre aux attentes ; cela implique également de posséder des motivations qui vont au-delà de l’intérêt égoïste. Comme les modèles actuels d’IA manquent de motivation intrinsèque – qu’elle soit égoïste, altruiste ou autre – la exigence qu’ils soient fiables est excessivement vague.

Share the Post: