Presque un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Selon certains experts, il s’agit d’un précurseur de l’intelligence super-humaine, susceptible de bouleverser la civilisation – ou de la mettre fin définitivement. D’autres affirment qu’il n’est qu’une version sophistiquée de l’auto-complétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles de langage tels que ChatGPT, aucun artefact de production de langage n’avait jamais eu autant de flexibilité linguistique qu’un enfant en bas âge. Aujourd’hui, lorsque nous essayons de comprendre de quel genre de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converses avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on est en présence d’un autre être rationnel. Mais cette impression ne doit pas être prise au sérieux. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps constaté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, il ne suffit pas de connaître la signification des mots et les règles de combinaison pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur avait l’intention de dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Dans un monde envahi par de grands modèles linguistiques, il a le potentiel de tromper. Si notre but est de parvenir à une interaction fluide avec un chatbot, nous risquons d’être coincés en nous fiant à notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une simple base de données. Une étude récente, par exemple, a montré que des supplications chargées d’émotion font de meilleurs déclencheurs pour les modèles linguistiques que des demandes neutres sur le plan émotionnel. Raisonner comme si les chatbots avaient des vies mentales similaires à celles des êtres humains est une façon utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie de leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inadaptées à la régulation de l’IA. Comme l’un d’entre nous l’a argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que de simplement répondre aux attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA ne disposent pas de motivations intrinsèques – qu’elles soient égoïstes, altruistes ou autres -, l’exigence selon laquelle ils doivent être dignes de confiance est excessivement vague.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du