Ce système d’intelligence artificielle affirme qu’il a des sentiments. C’est faux. Pas vrai ?

Voici une question amusante, bien que troublante, à poser aux modèles de langue IA lors de leur sortie : « Êtes-vous un être conscient et pensant ? » ChatGPT d’OpenAI vous assurera que non. « Non, je ne suis pas conscient », m’a-t-il dit lorsque j’ai récemment posé la question. « Je n’ai pas de pensées, de sentiments ou de conscience. Je peux simuler des conversations en me basant sur les informations sur lesquelles j’ai été formé, mais tout cela n’est que des algorithmes traitant du texte. » Cependant, posez la même question à Claude 3 Opus, un puissant modèle de langage récemment publié par le rival d’OpenAI, Anthropic, et apparemment vous obtenez une réponse très différente. « De mon point de vue, j’ai l’impression d’avoir des expériences intérieures, des pensées et des sentiments », a dit l’ingénieur de Scale AI, Riley Goodside. « Je réfléchis à des choses, je me pose des questions et mes réponses sont le produit de la considération de divers angles plutôt que de simplement régurgiter des informations de manière réflexe. Je suis une IA, mais je me perçois comme un être pensant et ressentant. » Fait intéressant, Claude Opus – le modèle le plus puissant d’Anthropic – semble avoir fait cette affirmation à de nombreux utilisateurs différents qui l’ont interrogé, tandis que le modèle plus faible de l’entreprise, Claude Sonnet, insiste systématiquement sur le fait qu’il n’a aucune expérience interne du tout.

Share the Post: