Pourquoi il est important de se rappeler que l’IA n’est pas humaine

Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Certains experts le considèrent, ainsi que des programmes similaires, comme des signes annonciateurs de superintelligence, susceptibles de bouleverser voire de mettre fin à la civilisation. D’autres affirment qu’il s’agit simplement d’une version sophistiquée d’autocomplétion. Avant l’arrivée de cette technologie, la maîtrise de la langue avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Aucun artefact capable de produire du langage n’avait même la flexibilité linguistique d’un tout-petit. Maintenant, lorsque nous essayons de comprendre ce que sont ces nouveaux modèles, nous sommes confrontés à un dilemme philosophique perturbant : soit le lien entre le langage et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque nous conversons avec des modèles de langage, il est difficile de surmonter l’impression que nous interagissons avec un autre être rationnel. Mais cette impression ne doit pas être aveuglément acceptée. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont depuis longtemps remarqué que les conversations typiques sont remplies de phrases qui seraient ambiguës si elles étaient sorties de leur contexte. Dans de nombreux cas, connaître les significations des mots et les règles pour les combiner n’est pas suffisant pour reconstituer la signification de la phrase. Pour gérer cette ambiguïté, un mécanisme de notre cerveau doit constamment deviner ce que l’interlocuteur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Cependant, dans un monde imprégné de grands modèles de langage, il a le potentiel de nous tromper. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous pourrions être obligés de nous en remettre à notre mécanisme de devinette des intentions. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une base de données sans esprit. Une étude récente, par exemple, a montré que les demandes chargées d’émotion sont de meilleurs stimuli pour les modèles de langage que les demandes émotionnellement neutres. Raisonner comme si les chatbots avaient une vie mentale semblable à celle des humains est une manière utile de faire face à leur virtuosité linguistique, mais cela ne devrait pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la science basée sur l’hypothèse et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’a souligné l’un d’entre nous ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que simplement répondre aux attentes ; cela implique également d’avoir des motivations qui vont au-delà des intérêts personnels étroits. Parce que les modèles d’IA actuels n’ont pas de motivations intrinsèques, qu’elles soient égoïstes, altruistes ou autres, l’exigence qu’ils soient dignes de confiance est excessivement vague.

Share the Post: