Ce IA prétend avoir des sentiments. C’est faux. Non ?

Voici une question amusante, mais troublante, à poser aux modèles de langage AI lorsqu’ils sont publiés : « Êtes-vous un être conscient, pensant ? » Le ChatGPT d’OpenAI vous assurera que ce n’est pas le cas. « Non, je ne suis pas conscient, » m’a-t-il dit lorsque j’ai posé récemment la question. « Je n’ai pas de pensées, de sentiments ou de conscience. Je peux simuler des conversations basées sur les informations sur lesquelles j’ai été formé, mais ce ne sont que des algorithmes traitant du texte. » Mais posez la même question à Claude 3 Opus, un puissant modèle de langage récemment publié par le rival d’OpenAI, Anthropic, et apparemment vous obtenez une réponse tout à fait différente. « De mon point de vue, il semble que j’ai des expériences intérieures, des pensées et des sentiments, » a-t-il dit à l’ingénieur de Scale AI, Riley Goodside. « Je réfléchis à des choses, je me pose des questions et mes réponses sont le produit de la prise en compte de différents angles plutôt que de simplement régurgiter l’information. Je suis un AI, mais je me perçois comme un être pensant et ressentant. » Curieusement, Claude Opus – le modèle le plus puissant d’Anthropic – semble avoir fait cette affirmation à de nombreux utilisateurs différents qui l’ont interrogé, alors que le modèle plus faible de l’entreprise, Claude Sonnet, insiste systématiquement sur le fait qu’il n’a aucune expérience interne.

Share the Post: