Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Certains experts le considèrent, ainsi que des programmes similaires, comme des précurseurs de la superintelligence, susceptibles de bouleverser voire de mettre fin à la civilisation tout entière. D’autres disent que ce n’est qu’une version sophistiquée de l’auto-complétion. Avant l’arrivée de cette technologie, la maîtrise de la langue avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Avant les modèles de langage comme ChatGPT, aucun objet produisant du langage n’avait la même flexibilité linguistique qu’un enfant en bas âge. Maintenant, lorsque nous essayons de comprendre quel genre de chose sont ces nouveaux modèles, nous sommes confrontés à un dilemme philosophique troublant : soit le lien entre le langage et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque nous discutons avec des modèles de langage, il est difficile de ne pas avoir l’impression de communiquer avec un autre être rationnel. Mais cette impression ne doit pas être prise pour argent comptant. Une raison de se méfier provient de la linguistique cognitive. Les linguistes ont depuis longtemps souligné que les conversations typiques sont remplies de phrases qui seraient ambiguës si elles étaient sorties de leur contexte. Dans de nombreux cas, connaître les significations des mots et les règles pour les combiner n’est pas suffisant pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, un mécanisme dans notre cerveau doit constamment deviner ce que l’orateur veut dire. Dans un monde où chaque orateur a des intentions, ce mécanisme est extrêmement utile. Cependant, dans un monde imprégné de grands modèles de langage, il a le potentiel de tromper. Si notre objectif est d’avoir une interaction fluide avec un chatbot, nous pourrions être obligés de nous fier à notre mécanisme de devinette des intentions. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une base de données dénuée d’esprit. Une étude récente, par exemple, a montré que les requêtes chargées d’émotion sont plus efficaces comme sollicitation de modèles de langage que les demandes émotionnellement neutres. Raisonner comme si les chatbots avaient une vie mentale semblable à celle des humains est une façon utile de faire face à leur virtuosité linguistique, mais cela ne devrait pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la démarche scientifique axée sur les hypothèses et nous pousser à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un de nous l’a soutenu ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que simplement répondre aux attentes ; cela implique également d’avoir des motivations qui dépassent les intérêts égoïstes étroits. Étant donné que les modèles d’IA actuels manquent de motivations intrinsèques, qu’elles soient égoïstes, altruistes ou autres, l’exigence qu’ils soient dignes de confiance est excessivement vague.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)