Il est important de se rappeler que l’IA n’est pas humaine

Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Pour certains experts, il s’agit d’un présage d’intelligence surhumaine, susceptible de renverser la civilisation – ou de la faire disparaître complètement. D’autres affirment qu’il n’est pas plus qu’une version élaborée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles de langage comme ChatGPT, aucun artefact produisant du langage n’avait jamais eu autant de flexibilité linguistique qu’un bébé. Maintenant, lorsque nous essayons de déterminer de quel type de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre langage et esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque vous conversez avec des modèles de langage, il est difficile de surmonter l’impression que vous engagez une autre être rationnel. Mais cette impression ne doit pas être fiable. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, connaître la signification des mots et les règles de combinaison ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est toujours utile. Dans un monde envahi par de grands modèles de langage, cependant, il a le potentiel de tromper. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous devrons peut-être nous contenter de notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une banale base de données. Une étude récente, par exemple, a montré que les supplications chargées d’émotion sont de meilleurs déclencheurs pour les modèles de langage que les demandes neutres sur le plan émotionnel. Raisonner comme si les chatbots avaient des vies mentales similaires à celles des êtres humains est une façon utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que de satisfaire les attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA ne disposent d’aucune motivation intrinsèque – qu’elle soit égoïste, altruiste ou autre -, l’exigence selon laquelle ils doivent être dignes de confiance est excessivement vague.

Share the Post: