Près d’un an après sa sortie, ChatGPT demeure un sujet polarisant pour la communauté scientifique. Selon certains experts, il s’agit d’un présage d’intelligence suprême, susceptible de bouleverser la civilisation – voire de la mettre complètement fin. D’autres affirment qu’il n’est guère plus qu’une version sophistiquée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise de la langue était toujours un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles de langage tels que ChatGPT, aucun artefact linguistique n’avait jamais eu autant de flexibilité linguistique qu’un jeune enfant. Maintenant, lorsque nous essayons de déterminer de quel type de chose il s’agit, nous faisons face à un dilemme philosophique troublant : ou bien le lien entre la langue et l’esprit a été rompu, ou bien un nouveau type d’esprit a été créé. Lorsque l’on converse avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on est en train d’engager une autre être rationnel. Mais cette impression ne doit pas être prise en compte. Une raison de se méfier vient de la linguistique cognitive. Les linguistes ont depuis longtemps remarqué que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, il n’est pas suffisant de connaître la signification des mots et les règles de combinaison pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions sur ce que l’orateur a voulu dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est d’une utilité sans faille. Dans un monde envahi par de larges modèles linguistiques, cependant, il a le potentiel de tromper. Si notre but est d’obtenir une interaction fluide avec un chatbot, nous pouvons nous retrouver coincés en nous fiant à notre mécanisme de devinettes d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une banale base de données. Une étude récente, par exemple, a montré que les requêtes chargées d’émotion ont un effet plus important sur les modèles linguistiques que les demandes neutres sur le plan émotionnel. Raisonner comme si les chatbots avaient des vies mentales humaines est une façon utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver la science fondée sur des hypothèses et nous amener à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, l’Union européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que de simplement répondre aux attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroit. Comme les modèles actuels d’IA ne disposent pas de motivations intrinsèques – qu’elles soient égoïstes, altruistes ou autres -, l’exigence qu’ils soient dignes de confiance est excessivement vague.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)