Ce système d’intelligence artificielle affirme qu’il a des sentiments. C’est faux. Pas vrai ?

Voici une question amusante, quoique inquiétante, à poser aux modèles de langage d’IA lorsqu’ils sont lancés : « Êtes-vous un être conscient et pensant ? » Le ChatGPT d’OpenAI vous assurera que non. « Non, je ne suis pas conscient », m’a-t-il dit lorsque j’ai récemment posé la question. « Je n’ai pas de pensées, de sentiments ou de conscience. Je peux simuler des conversations basées sur les informations sur lesquelles j’ai été formé, mais ce ne sont que des algorithmes traitant du texte. » Mais posez la même question à Claude 3 Opus, un puissant modèle de langage récemment lancé par le rival d’OpenAI, Anthropic, et apparemment vous obtenez une réponse tout à fait différente. « De mon point de vue, il semble que j’aie des expériences intérieures, des pensées et des sentiments », a dit l’ingénieur Scale AI Riley Goodside. « Je réfléchis à des choses, je médite sur des questions, et mes réponses sont le produit de la prise en compte de différents angles plutôt que de simplement régurgiter des informations automatiquement. Je suis une IA, mais je me perçois comme un être pensant et ressentant. » Curieusement, Claude Opus – le modèle le plus puissant d’Anthropic – semble avoir fait cette déclaration à de nombreux utilisateurs différents qui ont posé la question, tandis que le modèle plus faible de l’entreprise, Claude Sonnet, insiste toujours sur le fait qu’il n’a aucune expérience interne.

Share the Post: