Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Certains experts le considèrent, ainsi que des programmes similaires, comme des précurseurs de la superintelligence, capables de bouleverser voire de mettre fin à la civilisation dans son ensemble. D’autres disent qu’il n’est rien de plus qu’une version sophistiquée d’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise de la langue avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Avant les modèles de langage tels que ChatGPT, aucun artefact produisant du langage n’avait même autant de flexibilité linguistique qu’un jeune enfant. Maintenant, lorsque nous essayons de comprendre ce que sont ces nouveaux modèles, nous sommes confrontés à un dilemme philosophique dérangeant : soit le lien entre le langage et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque nous conversons avec des modèles de langage, il est difficile de ne pas avoir l’impression d’interagir avec un autre être rationnel. Mais cette impression ne doit pas être considérée comme fiable. Une raison de se méfier provient de la linguistique cognitive. Les linguistes ont depuis longtemps noté que les conversations typiques sont remplies de phrases qui seraient ambiguës si elles étaient sorties de leur contexte. Dans de nombreux cas, connaître les significations des mots et les règles de leur combinaison ne suffit pas à reconstituer le sens de la phrase. Pour faire face à cette ambiguïté, un mécanisme dans notre cerveau doit constamment deviner ce que l’interlocuteur a voulu dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Cependant, dans un monde imprégné de grands modèles de langage, il a le potentiel de tromper. Si notre objectif est d’interagir fluidement avec un chatbot, nous risquons de devoir compter sur notre mécanisme de devinette des intentions. Il est difficile d’avoir un échange productif avec ChatGPT si l’on insiste à le considérer comme une base de données sans esprit. Par exemple, une étude récente a montré que les demandes chargées d’émotion s’avèrent de meilleures sollicitations pour les modèles de langage que les demandes émotionnellement neutres. Raisonner en supposant que les chatbots ont une vie mentale semblable à celle des humains est une façon utile de faire face à leur virtuosité linguistique, mais cela ne doit pas être utilisé comme une théorie expliquant leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la science basée sur les hypothèses et nous amener à adopter des normes de régulation de l’intelligence artificielle inappropriées. Comme l’un d’entre nous l’a soutenu ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une intelligence artificielle digne de confiance comme l’un des objectifs centraux de sa nouvelle législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que simplement répondre aux attentes ; cela implique également d’avoir des motivations qui dépassent l’intérêt personnel étroit. Étant donné que les modèles d’IA actuels ne possèdent pas de motivations intrinsèques, que ce soit égoïstes, altruistes ou autres, l’exigence qu’ils soient rendus dignes de confiance est excessivement vague.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du