Pourquoi il est important de se rappeler que l’IA n’est pas humaine

Près d’un an après sa sortie, ChatGPT demeure un sujet polémique au sein de la communauté scientifique. Certains experts le considèrent, ainsi que des programmes similaires, comme des précurseurs de la superintelligence, susceptibles de bouleverser ou même d’anéantir la civilisation. D’autres affirment qu’il ne s’agit que d’une version sophistiquée de l’autocomplétion. Jusqu’à l’avènement de cette technologie, la maîtrise de la langue avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Aucun artefact produisant du langage ne pouvait rivaliser avec la flexibilité linguistique d’un jeune enfant. Désormais, lorsque nous essayons de définir la nature de ces nouveaux modèles, nous nous confrontons à un dilemme philosophique troublant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque nous communiquons avec des modèles de langage, il est difficile de ne pas avoir l’impression d’interagir avec un être rationnel. Cependant, cette impression ne devrait pas être considérée comme fiable. Une raison de se méfier provient de la linguistique cognitive. Les linguistes ont depuis longtemps remarqué que les conversations typiques sont truffées de phrases qui seraient ambiguës si elles étaient sorties de leur contexte. Dans de nombreux cas, connaître les significations des mots et les règles de leur combinaison ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, un mécanisme de notre cerveau doit constamment deviner ce que l’interlocuteur a voulu dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est invariablement utile. Toutefois, dans un monde envahi par de grands modèles de langage, il a le potentiel de tromper. Si notre objectif est d’avoir une interaction fluide avec un chatbot, nous sommes peut-être contraints de nous appuyer sur notre mécanisme de devinette des intentions. Il est difficile d’avoir un échange productif avec ChatGPT si l’on persiste à le considérer comme une base de données insensible. Par exemple, une étude récente a montré que les supplications chargées d’émotion sont plus efficaces que les demandes neutres sur le plan émotionnel en tant que stimulations pour les modèles de langage. Raisonner en supposant que les chatbots ont une vie mentale semblable à celle des humains est une façon utile de faire face à leur virtuosité linguistique, mais cela ne devrait pas être utilisé comme une théorie expliquant leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’intelligence artificielle. Comme l’a déjà soutenu l’un d’entre nous, la Commission européenne a commis une erreur en faisant de la création d’une IA digne de confiance l’un des objectifs centraux de sa nouvelle législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que simplement répondre aux attentes ; cela implique également d’avoir des motivations qui dépassent l’intérêt personnel étroit. Étant donné que les modèles d’IA actuels ne possèdent pas de motivations intrinsèques, qu’elles soient égoïstes, altruistes ou autres, l’exigence de leur conférer une fiabilité est excessivement vague.

Share the Post: