Pourquoi il est important de se souvenir que l’IA n’est pas humaine

Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Selon certains experts, il s’agit d’un précurseur de la superintelligence, susceptible de bouleverser la civilisation – ou de la faire disparaître purement et simplement. Selon d’autres, ce n’est qu’une version sophistiquée de l’auto-complétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours considérée comme un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles de langage tels que ChatGPT, aucun artefact de production de langue n’avait jamais eu une telle flexibilité linguistique, même pas un enfant en bas âge. Maintenant, lorsque nous essayons de comprendre de quel genre de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque vous discutez avec des modèles linguistiques, il est difficile de surmonter l’impression que vous êtes en train d’engager une autre être rationnel. Mais cette impression ne doit pas être prise au sérieux. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, connaître les significations des mots et les règles pour les combiner ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est d’une utilité sans faille. Dans un monde envahi par de grands modèles linguistiques, il peut cependant tromper. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous devrons peut-être nous contenter de notre mécanisme de devinettes d’intention. Il est difficile d’avoir une échange productive avec ChatGPT si vous insistez pour le considérer comme une banale base de données. Une étude récente, par exemple, a montré que les appels émotionnels sont de meilleurs déclencheurs pour les modèles linguistiques que les demandes neutres émotionnellement. Raisonner comme si les chatbots avaient des vies mentales humaines est une façon utile de faire face à leur virtuosité linguistique, mais cela ne doit pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver la science dirigée par les hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un de nous l’a argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA fiable comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que de simplement satisfaire les attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA manquent de motivations intrinsèques – qu’ils soient égoïstes, altruistes ou autres – l’exigence qu’ils soient fiables est excessivement floue.

Share the Post: