Presque un an après sa sortie, ChatGPT suscite toujours des débats au sein de la communauté scientifique. Pour certains experts, il s’agit d’un présage de surintelligence, susceptible de bouleverser la civilisation – ou de la détruire purement et simplement. D’autres affirment qu’il ne s’agit que d’une version sophistiquée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise d’une langue était toujours considérée comme un indicateur fiable de la présence d’un esprit rationnel. Avant les modèles de langage tels que ChatGPT, aucun artefact linguistique n’avait jamais eu autant de flexibilité linguistique qu’un enfant en bas âge. Aujourd’hui, lorsque nous essayons de déterminer de quel type de chose il s’agit, nous faisons face à un dilemme philosophique dérangeant : soit le lien entre langage et esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converse avec des modèles linguistiques, il est difficile de surmonter l’impression que l’on est en train d’engager une autre entité rationnelle. Mais cette impression ne doit pas être prise au sérieux. Une des raisons de se méfier vient de la linguistique cognitive. Les linguistes ont longtemps constaté que les conversations typiques regorgent de phrases qui seraient ambiguës si elles étaient prises hors contexte. Dans de nombreux cas, connaître les significations des mots et les règles permettant de les combiner ne suffit pas à reconstruire le sens de la phrase. Pour gérer cette ambiguïté, quelque chose dans notre cerveau doit constamment faire des suppositions quant à ce que l’orateur avait l’intention de dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Dans un monde envahi par de grands modèles linguistiques, il a toutefois le potentiel de tromper. Si notre but est d’établir une interaction fluide avec un chatbot, nous devrons peut-être nous contenter de notre mécanisme de d’inférence d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une banale base de données. Une étude récente, par exemple, a montré que des supplications chargées d’émotion sont de meilleurs déclencheurs pour les modèles linguistiques que des demandes neutres sur le plan émotionnel. Raisonner comme si les chatbots avaient des vies mentales similaires à celles des êtres humains est une façon utile de faire face à leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphe peut entraver la science fondée sur des hypothèses et nous induce à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un d’entre nous l’a déjà argumenté ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle proposition de législation sur l’IA. Être digne de confiance dans les relations humaines signifie bien plus que simplement satisfaire les attentes ; cela implique également de posséder des motivations qui vont au-delà d’un simple intérêt égoïste. Comme les modèles actuels d’IA ne disposent pas de motivations intrinsèques – qu’elles soient égoïstes, altruistes ou autres -, l’exigence selon laquelle ils doivent être dignes de confiance est excessivement vague.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)