Il est important de se souvenir que l’IA n’est pas humaine

Près d’un an après sa sortie, ChatGPT reste un sujet controversé pour la communauté scientifique. Selon certains experts, il s’agit là d’un présage d’intelligence surhumaine, susceptible de bouleverser la civilisation – ou de la mettre tout simplement fin. D’autres affirment qu’il ne s’agit là que d’une version sophistiquée de l’auto-complétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles de langage tels que ChatGPT, aucun artefact de production de langage n’avait jamais autant de flexibilité linguistique qu’un enfant en bas âge. Aujourd’hui, en essayant de déterminer de quel type de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre langage et esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converser avec des modèles de langage, il est difficile de surmonter l’impression que l’on est en train d’engager une autre personne rationnelle. Mais cette impression ne doit pas être prise au sérieux. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, il n’est pas suffisant de connaître la signification des mots et les règles de composition pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions quant à ce que l’orateur avait l’intention de dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est d’une utilité sans faille. Dans un monde envahi par de grands modèles linguistiques, il a le potentiel de tromper. Si notre but est d’établir une interaction fluide avec un chatbot, nous devrons peut-être nous contenter de notre mécanisme de détection d’intentions. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une simple base de données. Une étude récente, par exemple, a montré que les appels émotionnellement chargés ont un meilleur effet sur les modèles linguistiques que les demandes émotionnellement neutres. Raisonner comme si les chatbots avaient des vies mentales similaires à celles des humains est une façon utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver une science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Faire preuve de fiabilité dans les relations humaines signifie plus que de simplement satisfaire les attentes ; cela implique également de posséder des motivations qui vont au-delà d’un intérêt étroite. Comme les modèles actuels d’IA manquent de motivation intrinsèque – qu’elle soit égoïste, altruiste ou autre -, l’exigence selon laquelle ils doivent être dignes de confiance est excessivement vague.

Share the Post: