Près d’un an après sa sortie, ChatGPT reste un sujet controversé au sein de la communauté scientifique. Certains experts le considèrent, ainsi que d’autres programmes similaires, comme des précurseurs de la superintelligence, susceptibles de bouleverser voire de mettre fin à la civilisation. D’autres estiment qu’il s’agit simplement d’une version sophistiquée de l’auto-complétion. Avant l’apparition de cette technologie, la maîtrise de la langue avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Auparavant, aucun artefact capable de produire du langage n’avait même la souplesse linguistique d’un tout-petit. Maintenant, lorsque nous essayons de comprendre ce que représentent ces nouveaux modèles, nous sommes confrontés à un dilemme philosophique troublant : soit le lien entre le langage et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque nous conversons avec les modèles de langage, il est difficile de ne pas avoir l’impression d’interagir avec un être rationnel. Mais cette impression ne devrait pas être considérée comme fiable. Une des raisons de se méfier provient de la linguistique cognitive. Depuis longtemps, les linguistes ont remarqué que les conversations typiques sont remplies de phrases qui seraient ambiguës si elles étaient sorties de leur contexte. Dans de nombreux cas, connaître le sens des mots et les règles pour les combiner ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, un mécanisme de notre cerveau doit constamment faire des suppositions sur ce que l’interlocuteur voulait dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Cependant, dans un monde envahi par de grands modèles de langage, il a le potentiel de nous tromper. Si notre objectif est d’atteindre une interaction fluide avec un chatbot, nous pourrions être contraints de nous en remettre à notre mécanisme de supposition des intentions. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une base de données sans esprit. Une récente étude, par exemple, a montré que les supplications chargées d’émotion sont de meilleurs stimulants pour les modèles de langage que les demandes émotionnellement neutres. Raisonner comme si les chatbots avaient une vie mentale similaire à celle des humains est une manière utile de faire face à leur virtuosité linguistique, mais cela ne devrait pas être utilisé comme une théorie sur leur fonctionnement. Ce type de prétention anthropomorphique peut entraver la science basée sur l’hypothèse et nous amener à adopter des normes inappropriées pour la régulation de l’IA. Comme l’un de nous l’a déjà soutenu, la Commission européenne a commis une erreur en faisant de la création d’une IA digne de confiance l’un des objectifs centraux de sa nouvelle législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que simplement satisfaire aux attentes ; cela implique également d’avoir des motivations qui vont au-delà d’un simple intérêt personnel étroit. Étant donné que les modèles d’IA actuels ne disposent pas de motivations intrinsèques, quelles qu’elles soient (égoïstes, altruistes, ou autres), l’exigence qu’ils soient dignes de confiance est excessivement vague.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)