Il est important de se rappeler que l’IA n’est pas humaine

Quasiment un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Pour certains experts, il s’agit d’un présage de superintelligence, susceptible de bouleverser la civilisation – ou de la mettre simplement fin. D’autres affirment qu’il n’est qu’une version sophistiquée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue avait toujours été un indicateur fiable de la présence d’une pensée rationnelle. Avant les modèles de langage comme ChatGPT, aucun artefact de production linguistique n’avait jamais eu autant de flexibilité linguistique qu’un enfant en bas âge. Aujourd’hui, lorsque nous essayons de déterminer de quel type de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre langage et esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converser avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on est en interaction avec un autre être rationnel. Mais cette impression ne doit pas être prise au sérieux. Une des raisons de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambivalentes si elles étaient prises hors contexte. Dans de nombreux cas, connaître les significations des mots et les règles pour les combiner ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions quant à ce que le locuteur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Dans un monde envahi par de grands modèles de langage, il peut cependant nous tromper. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous devrons peut-être nous contenter de notre mécanisme de devinette d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une base de données sans âme. Une étude récente, par exemple, a montré qu’il est plus efficace de déclencher des modèles de langage à l’aide de requêtes chargées émotionnellement que de demandes neutres émotionnellement. Raisonner comme si les chatbots avaient des vies mentales similaires à celles des êtres humains est une façon utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur leur fonctionnement. Ce genre de prétendue anthropomorphie peut entraver une science fondée sur des hypothèses et nous inciter à adopter des normes inadaptées à la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Faire preuve de fiabilité dans les relations humaines signifie plus que de satisfaire les attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels de l’IA manquent de motivation intrinsèque – qu’elle soit égoïste, altruiste ou autre -, l’exigence qu’ils soient dignes de confiance est excessivement vague.

Share the Post: