Il est important de se rappeler que l’IA n’est pas humaine

Un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Selon certains experts, il s’agit d’un précurseur de l’intelligence superlative, susceptible de bouleverser la civilisation – ou de la mettre simplement fin. D’autres affirment qu’il n’est qu’une version élaborée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la compétence linguistique avait toujours été un indicateur fiable de la présence d’une pensée rationnelle. Avant les modèles de langage tels que ChatGPT, aucun artefact de production de langage n’avait jamais autant de flexibilité linguistique qu’un enfant en bas âge. Maintenant, lorsque nous essayons de déterminer de quel type de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converser avec des modèles linguistiques, il est difficile de surmonter l’impression que vous êtes en train d’engager une autre être rationnel. Mais cette impression ne doit pas être prise en compte. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques sont pleines de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, il n’est pas suffisant de connaître les significations des mots et les règles de combinaison pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est toujours utile. Dans un monde envahi par de grands modèles linguistiques, cependant, il a le potentiel de tromper. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous pouvons nous retrouver coincés en nous basant sur notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une simple base de données. Une étude récente a montré, par exemple, que les prières chargées d’émotion sont de meilleurs déclencheurs pour les modèles de langage que les demandes neutres sur le plan émotionnel. Raisonner comme si les chatbots avaient des vies mentales humaines est un moyen utile de faire face à leur virtuosité linguistique, mais il ne doit pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut gêner la science basée sur les hypothèses et nous amener à adopter des normes inadaptées à la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA fiable comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que de simplement satisfaire les attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA ne disposent pas de motivations intrinsèques – qu’elles soient égoïstes, altruistes ou autres -, l’exigence qu’ils soient fiables est excessivement vague.

Share the Post: