Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Certains experts le considèrent, ainsi que des programmes similaires, comme des précurseurs de la superintelligence, capables de bouleverser voire de mettre fin à la civilisation tout entière. D’autres affirment qu’il s’agit simplement d’une version sophistiquée d’auto-complétion. Avant l’apparition de cette technologie, la maîtrise de la langue avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Auparavant, aucun artefact produisant du langage ne possédait la même flexibilité linguistique qu’un jeune enfant. Maintenant, lorsque nous essayons de comprendre de quoi sont capables ces nouveaux modèles, nous sommes confrontés à un dilemme philosophique inquiétant : soit le lien entre le langage et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. En discutant avec des modèles de langage, il est difficile de ne pas avoir l’impression de communiquer avec un être rationnel. Cependant, cette impression ne devrait pas être considérée comme fiable. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont depuis longtemps remarqué que les conversations typiques sont remplies de phrases qui deviennent ambiguës si elles sont sorties de leur contexte. Dans de nombreux cas, connaître les significations des mots et les règles pour les combiner n’est pas suffisant pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, un mécanisme dans notre cerveau doit constamment deviner ce que l’orateur voulait dire. Dans un monde où chaque orateur a des intentions, ce mécanisme est d’une utilité inébranlable. Cependant, dans un monde envahi par des modèles de langage volumineux, il a le potentiel de nous tromper. Si notre objectif est d’avoir une interaction fluide avec un chatbot, nous pourrions être contraints de nous appuyer sur notre mécanisme de devinette des intentions. Il est difficile d’avoir un échange productif avec ChatGPT si vous persistez à le considérer comme une base de données dénuée de pensée. Une étude récente, par exemple, a montré que les supplications empreintes d’émotion sont des stimuli plus efficaces que des demandes émotionnellement neutres pour les modèles de langage. Raisonner comme si les chatbots avaient une vie mentale semblable à celle des humains est une façon utile de faire face à leur virtuosité linguistique, mais cela ne devrait pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la science basée sur l’hypothèse et nous inciter à adopter des normes inappropriées pour la régulation de l’IA. Comme l’un d’entre nous l’a précédemment argumenté, la Commission européenne a commis une erreur en choisissant de faire de l’IA digne de confiance l’un des objectifs centraux de sa nouvelle législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que simplement répondre aux attentes ; cela implique également d’avoir des motivations qui dépassent l’intérêt égoïste étroit. Étant donné que les modèles d’IA actuels manquent de motivations intrinsèques, qu’elles soient égoïstes, altruistes ou autres, l’exigence de faire en sorte qu’ils soient dignes de confiance est excessivement vague.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)