Pourquoi est-il important de se souvenir que l’IA n’est pas humaine

Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Pour certains experts, il s’agit d’un précurseur de la superintelligence, susceptible de renverser la civilisation – ou de la mettre fin tout simplement. D’autres affirment qu’il n’est qu’une version sophistiquée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles de langage tels que ChatGPT, aucun artefact de production de langage n’avait jamais eu une flexibilité linguistique aussi importante qu’un enfant en bas âge. Maintenant, lorsque nous essayons de déterminer de quel type de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque vous converser avec des modèles de langage, il est difficile de surmonter l’impression que vous engagez une autre personne rationnelle. Mais cette impression ne devrait pas être fiable. Une raison de se méfier provient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, connaître les significations des mots et les règles pour les combiner ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est constamment utile. Dans un monde envahi par de grands modèles de langage, cependant, il a le potentiel de tromper. Si notre objectif est d’établir une interaction fluide avec un chatbot, nous pouvons nous retrouver coincés en nous reliant sur notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une banque de données sans vie. Une étude récente, par exemple, a montré que les appels émotionnellement chargés sont des déclencheurs plus efficaces que les demandes émotionnellement neutres. Raisonner comme si les chatbots avaient des vies mentales humaines est une manière utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur la manière dont ils fonctionnent. Ce genre de prétention anthropomorphique peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA fiable comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être fiable dans les relations humaines signifie plus que de simplement répondre aux attentes ; il implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA manquent de motivations intrinsèques – qu’elles soient égoïstes, altruistes ou autres – l’exigence qu’elles soient fiables est excessivement vague.

Share the Post: