Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Selon certains experts, il s’agit d’un précurseur de la superintelligence, susceptible de renverser la civilisation ou de la mettre carrément fin. Selon d’autres, ce n’est qu’une version élaborée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise de la langue était toujours considérée comme un indicateur fiable de la présence d’une intelligence rationnelle. Avant les modèles linguistiques tels que ChatGPT, aucun artefact linguistique n’avait jamais eu autant de flexibilité linguistique qu’un enfant en bas âge. Maintenant, lorsque nous essayons de déterminer de quel genre de chose il s’agit, nous faisons face à un dilemme philosophique perturbant : soit le lien entre la langue et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converses avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on s’engage avec un autre être rationnel. Mais cette impression ne doit pas être prise au sérieux. Une des raisons de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps noté que les conversations typiques sont pleines de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, il n’est pas suffisant de connaître la signification des mots et les règles de combinaison pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions quant à ce que l’orateur voulait dire. Dans un monde où tout locuteur a des intentions, ce mécanisme est extrêmement utile. Dans un monde envahi par de grands modèles linguistiques, cependant, il a le potentiel de tromper. Si notre objectif est d’obtenir une interaction fluide avec un chatbot, nous nous retrouvons peut-être coincés en nous reliant sur notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une banque de données sans âme. Une étude récente, par exemple, a montré que les supplications chargées d’émotion sont des déclencheurs plus efficaces pour les modèles linguistiques que les demandes émotionnellement neutres. Raisonner comme si les chatbots avaient des vies mentales similaires à celles des humains est un moyen utile de faire face à leur virtuosité linguistique, mais cela ne doit pas être utilisé comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver la science fondée sur des hypothèses et nous induire à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA fiable comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être fiable dans les relations humaines signifie plus que de satisfaire les attentes ; cela implique également d’avoir des motivations qui vont au-delà de l’égoïsme étroi. Comme les modèles actuels d’IA manquent de motivations intrinsèques, qu’elles soient égoïstes, altruistes ou autres, l’exigence qu’ils soient rendus fiables est excessivement vague.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)