Plus d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Pour certains experts, il s’agit d’un précurseur de l’intelligence superflue, susceptible de renverser la civilisation – ou de la détruire purement et simplement. D’autres affirment qu’il n’est guère plus qu’une version élaborée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours un indicateur fiable de la présence d’une pensée rationnelle. Avant les modèles de langage tels que ChatGPT, aucun artefact de production linguistique n’avait même la souplesse linguistique d’un jeune enfant. Maintenant, lorsque nous essayons de déterminer de quel genre de chose il s’agit, nous sommes confrontés à un dilemme philosophique perturbant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converse avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on est en présence d’un autre être rationnel. Mais cette impression ne doit pas être prise au sérieux. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps souligné que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient extraites de leur contexte. Dans de nombreux cas, il n’est pas suffisant de connaître la signification des mots et les règles de combinaison pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que le locuteur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Dans un monde envahi par de grands modèles de langage, cependant, il peut induire en erreur. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous pourrions être coincés en nous fiant à notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une simple base de données. Une étude récente, par exemple, a montré que les requêtes chargées d’émotion ont un meilleur effet sur les modèles de langage que les requêtes neutres émotionnellement. Raisonner comme si les chatbots avaient une vie mentale humaine est une façon utile de faire face à leur virtuosité linguistique, mais cela ne doit pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que de simplement répondre aux attentes ; cela implique également de posséder des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA ne possèdent pas de motivation intrinsèque – qu’elle soit égoïste, altruiste ou autre -, l’exigence qu’ils soient dignes de confiance est excessivement vague.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)