Il est important de se souvenir que l’IA n’est pas humaine

Près d’un an après sa sortie, ChatGPT demeure un sujet polarisant pour la communauté scientifique. Pour certains experts, il s’agit d’un présage de l’intelligence superlative, susceptible de bouleverser la civilisation – ou de la mettre simplement fin. D’autres disent qu’il n’est guère plus qu’une version élaborée de l’auto-complétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indice fiable de la présence d’une intelligence rationnelle. Avant les modèles linguistiques tels que ChatGPT, aucun artefact linguistique n’avait jamais eu autant de flexibilité linguistique qu’un enfant en bas âge. Maintenant, lorsque nous essayons de déterminer de quel genre de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsqu’on converser avec des modèles linguistiques, il est difficile de surmonter l’impression que vous êtes en train de vous engager avec un autre être rationnel. Mais cette impression ne doit pas être prise au sérieux. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambivalentes si elles étaient prises hors contexte. Dans de nombreux cas, savoir ce que signifient les mots et les règles pour les combiner ne suffit pas pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est toujours extrêmement utile. Dans un monde envahi par de grands modèles linguistiques, cependant, il a le potentiel de tromper. Si notre objectif est d’établir une interaction fluide avec un chatbot, nous pouvons être coincés en nous fiant à notre mécanisme de guessing d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une simple base de données. Une étude récente, par exemple, a montré que des appels émotionnels sont de meilleurs déclencheurs pour les modèles linguistiques que des demandes neutres sur le plan émotionnel. Raisonner comme si les chatbots avaient des vies mentales humaines est une façon utile de faire face à leur virtuosité linguistique, mais cela ne doit pas être utilisé comme une théorie sur la façon dont ils fonctionnent. Ce genre de prétention anthropomorphe peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour réglementer l’IA. Comme l’un de nous l’a déjà argumenté ailleurs, la Commission européenne a fait une erreur en choisissant la création d’une IA fiable comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être fiable dans les relations humaines signifie plus que de simplement satisfaire les attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA manquent de motivation intrinsèque – qu’elle soit égoïste, altruiste ou autre -, l’exigence qu’ils soient fiables est excessivement vague.

Share the Post: