Pourquoi est-il important de se rappeler que l’intelligence artificielle n’est pas humaine ?

Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Pour certains experts, il s’agit d’un précurseur de l’intelligence supérieure, susceptible de renverser la civilisation – ou de la mettre fin tout court. D’autres disent qu’il n’est guère plus qu’une version sophistiquée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Avant les modèles linguistiques comme ChatGPT, aucun artefact linguistique n’avait jamais eu autant de flexibilité linguistique qu’un enfant en bas âge. Maintenant, lorsque nous essayons de déterminer de quel genre de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converse avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on est en présence d’un autre être rationnel. Mais cette impression ne doit pas être prise au sérieux. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, connaître les significations des mots et les règles pour les combiner ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur avait l’intention de dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est infailliblement utile. Dans un monde envahi par de grands modèles linguistiques, il a toutefois le potentiel de tromper. Si notre objectif est d’atteindre une interaction fluide avec un chatbot, nous pouvons nous retrouver coincés en nous basant sur notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une simple base de données. Une étude récente, par exemple, a montré que les supplications chargées d’émotion sont des invitations plus efficaces qu’une demande neutre sur le plan émotionnel. Raisonner comme si les chatbots avaient des vies mentales semblables à celles des êtres humains est une façon utile de faire face à leur virtuosité linguistique, mais cela ne doit pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inadéquates pour la réglementation de l’IA. Comme l’un d’entre nous l’a argumenté ailleurs, l’Union européenne a commis une erreur lorsqu’elle a choisi la création d’une IA fiable comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être fiable dans les relations humaines signifie plus que de simplement satisfaire les attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA manquent de motivations intrinsèques – qu’elles soient égoïstes, altruistes ou autres -, l’exigence selon laquelle ils doivent être fiables est excessivement vague.

Share the Post: