Près d’un an après sa sortie, ChatGPT reste un sujet polarisant au sein de la communauté scientifique. Certains experts le considèrent, ainsi que des programmes similaires, comme des précurseurs de la superintelligence capables de bouleverser voire de mettre fin à la civilisation. D’autres soutiennent qu’il ne s’agit que d’une version sophistiquée d’autocomplétion. Avant l’avènement de cette technologie, la maîtrise de la langue était toujours considérée comme un indicateur fiable de la présence d’un esprit rationnel. Auparavant, aucun artefact capable de produire du langage ne possédait une telle flexibilité linguistique, pas même celle d’un tout-petit. Maintenant, lorsque nous essayons de déterminer ce que ces nouveaux modèles sont, nous sommes confrontés à un dilemme philosophique troublant : soit le lien entre le langage et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque nous interagissons avec des modèles de langage, il est difficile de ne pas avoir l’impression d’engager une conversation avec un être rationnel. Mais cette impression ne devrait pas être prise pour argent comptant. Une raison de se méfier provient de la linguistique cognitive. Les linguistes ont depuis longtemps remarqué que les conversations courantes regorgent de phrases qui pourraient être ambiguës si elles étaient sorties de leur contexte. Dans de nombreux cas, connaître les significations des mots et les règles de leur combinaison ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, un mécanisme dans notre cerveau doit constamment deviner ce que l’interlocuteur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est infailliblement utile. Toutefois, dans un monde imprégné de grands modèles de langage, il a le potentiel de nous tromper. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous pourrions être contraints de nous appuyer sur notre mécanisme de devination des intentions. Il est difficile d’avoir un échange productif avec ChatGPT si l’on continue de le considérer comme une base de données sans esprit. Une étude récente, par exemple, a montré que les demandes chargées d’émotion sont plus efficaces que les demandes émotionnellement neutres en tant que stimuli pour les modèles de langage. Raisonner comme si les chatbots avaient une vie mentale similaire à celle des humains est une manière utile de faire face à leur virtuosité linguistique, mais cela ne devrait pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’a soutenu l’un d’entre nous ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que simplement répondre aux attentes ; cela implique également d’avoir des motivations qui dépassent les intérêts personnels étroits. Étant donné que les modèles d’IA actuels ne possèdent pas de motivations intrinsèques, qu’elles soient égoïstes, altruistes ou autres, l’exigence qu’ils soient dignes de confiance est excessivement vague.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)