Près d’un an après sa sortie, ChatGPT reste un sujet polarisant pour la communauté scientifique. Certains experts le considèrent, ainsi que des programmes similaires, comme des précurseurs de la superintelligence, susceptibles de bouleverser la civilisation – voire de la faire disparaitre complètement. D’autres affirment qu’il s’agit simplement d’une version sophistiquée de l’autocomplétion. Jusqu’à l’arrivée de cette technologie, la maîtrise du langage avait toujours été un indicateur fiable de la présence d’un esprit rationnel. Auparavant, aucun artefact produisant du langage n’avait même la moitié de la flexibilité linguistique d’un tout-petit. Maintenant, lorsque nous essayons de comprendre de quoi sont capables ces nouveaux modèles, nous sommes confrontés à un dilemme philosophique déconcertant : soit le lien entre le langage et l’esprit a été rompu, soit un nouveau type d’esprit a été créé. Lorsque l’on converse avec des modèles linguistiques, il est difficile de ne pas avoir l’impression d’interagir avec un autre être rationnel. Mais cette impression ne devrait pas être prise pour argent comptant. Une raison de la prudence provient de la linguistique cognitive. Les linguistes ont depuis longtemps remarqué que les conversations typiques sont remplies de phrases qui seraient ambiguës si elles étaient sorties de leur contexte. Dans de nombreux cas, connaître les significations des mots et les règles de leur combinaison n’est pas suffisant pour reconstruire le sens de la phrase. Pour gérer cette ambiguïté, un mécanisme de notre cerveau doit constamment faire des hypothèses sur ce que l’interlocuteur a voulu dire. Dans un monde où chaque locuteur a des intentions, ce mécanisme est extrêmement utile. Dans un monde imprégné de grands modèles linguistiques, cependant, il a le potentiel de nous induire en erreur. Si notre objectif est d’avoir une interaction fluide avec un chatbot, nous pourrions être obligés de nous appuyer sur notre mécanisme de supposition d’intention. Il est difficile d’avoir un échange productif avec ChatGPT si vous insistez pour le considérer comme une base de données sans esprit. Une étude récente, par exemple, a montré que les supplications chargées d’émotions sont plus efficaces que les demandes émotionnellement neutres comme stimulations pour les modèles linguistiques. Raisonner en supposant que les chatbots ont une vie mentale similaire à celle des êtres humains est une manière utile de composer avec leur virtuosité linguistique, mais elle ne doit pas être utilisée comme une théorie sur leur fonctionnement. Ce genre de prétention anthropomorphique peut entraver la science basée sur l’hypothèse et nous pousser à adopter des normes inappropriées pour la réglementation de l’IA. Comme l’un de nous l’a soutenu ailleurs, la Commission européenne a commis une erreur en choisissant la création d’une IA digne de confiance comme l’un des objectifs centraux de sa nouvelle législation sur l’IA. Être digne de confiance dans les relations humaines signifie plus que simplement répondre aux attentes ; cela implique également d’avoir des motivations qui dépassent l’intérêt personnel étriqué. Parce que les modèles actuels d’IA manquent de motivations intrinsèques – qu’elles soient égoïstes, altruistes ou autrement -, l’exigence qu’ils soient dignes de confiance est excessivement vague.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation