Pourquoi est-il important de se rappeler que l’IA n’est pas humaine ?

Presque un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Selon certains experts, il s’agit là d’un présage de l’intelligence superlative, susceptible de bouleverser la civilisation – ou de la mettre fin tout simplement. D’autres affirment que ce n’est qu’une version sophistiquée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles de langue tels que ChatGPT, aucun artefact linguistique n’avait jamais eu autant de flexibilité linguistique qu’un enfant en bas âge. Aujourd’hui, en essayant de comprendre de quel genre de chose il s’agit, nous faisons face à un dilemme philosophique dérangeant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converse avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on est en contact avec un autre être rationnel. Mais cette impression ne doit pas être prise au sérieux. Une des raisons de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps constaté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient extraites de leur contexte. Dans de nombreux cas, il n’est pas suffisant de connaître la signification des mots et les règles de combinaison pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions quant à ce que l’orateur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est d’une utilité sans faille. Dans un monde envahi par de grands modèles linguistiques, il a toutefois le potentiel de tromper. Si notre objectif est d’établir une interaction fluide avec un chatbot, nous risquons de nous retrouver bloqués en nous penchant sur notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous persistez à le considérer comme une base de données sans âme. Une étude récente, par exemple, a montré que les appels émotionnellement chargés sont de meilleurs déclencheurs pour les modèles linguistiques que les demandes émotionnellement neutres. Raisonner comme si les chatbots avaient des vies mentales semblables à celles des êtres humains est une façon utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur en faisant du respect des attentes un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Faire preuve de fiabilité dans les relations humaines signifie plus que de simplement respecter les attentes ; cela implique également de posséder des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA ne présentent aucune motivation intrinsèque – qu’elle soit égoïste, altruiste ou autre -, l’exigence qu’ils soient fiables est excessivement vague.

Share the Post: