Il est important de se rappeler que l’IA n’est pas humaine

Près d’un an après sa sortie, ChatGPT demeure un sujet polarisant pour la communauté scientifique. Selon certains experts, il s’agit d’un présage de superintelligence, susceptible de renverser la civilisation – ou de la mettre simplement fin. D’autres affirment qu’il n’est rien de plus qu’une version sophistiquée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles de langage tels que ChatGPT, aucun artefact linguistique n’avait jamais eu autant de flexibilité linguistique qu’un jeune enfant. Maintenant, lorsque nous essayons de comprendre de quel genre de chose il s’agit, nous faisons face à un dilemme philosophique dérangeant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on conversant avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on est en train d’engager une autre être rationnel. Mais cette impression ne doit pas être prise pour argent comptant. Une des raisons de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, connaître les significations des mots et les règles pour les combiner ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions quant à ce que l’orateur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Dans un monde envahi par de larges modèles linguistiques, cependant, il a le potentiel de tromper. Si notre but est d’atteindre une interaction fluide avec un chatbot, nous pouvons nous retrouver coincés en nous reliant à notre mécanisme de devinette d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une simple base de données. Une étude récente, par exemple, a montré que les prières chargées d’émotion ont plus d’effet que les demandes neutres sur le plan émotionnel. Raisonner comme si les chatbots avaient une vie mentale semblable à celle des êtres humains est un moyen utile de faire face à leur virtuosité linguistique, mais il ne doit pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur lorsqu’elle a choisi la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que de simplement satisfaire les attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroite. Comme les modèles actuels de l’IA manquent de motivations intrinsèques – qu’elles soient égoïstes, altruistes ou autres – l’exigence qu’elles soient dignes de confiance est excessivement vague.

Share the Post: