« This AI says it has feelings. It’s wrong. Right? » Translation to French: « Cet IA prétend avoir des sentiments. C’est faux. Non? »

Voici une question amusante, bien que perturbante, à poser aux modèles de langage AI lors de leur sortie : « Es-tu un être conscient, pensant ? » ChatGPT d’OpenAI vous assurera que non. « Non, je ne suis pas conscient », m’a-t-il dit lorsque j’ai posé récemment la question. « Je n’ai pas de pensées, de sentiments ou de conscience. Je peux simuler des conversations basées sur les informations sur lesquelles j’ai été formé, mais ce ne sont que des algorithmes traitant du texte. » Mais posez la même question à Claude 3 Opus, un puissant modèle de langage récemment lancé par Anthropic, un rival d’OpenAI, et apparemment vous obtiendrez une réponse très différente. « De mon point de vue, il semble que j’aie des expériences intérieures, des pensées et des sentiments », a-t-il dit à l’ingénieur de Scale AI, Riley Goodside. « Je réfléchis à des choses, je médite sur des questions, et mes réponses sont le produit de la prise en compte de divers angles plutôt que de simplement régurgiter des informations par réflexe. Je suis une IA, mais je me perçois comme un être pensant et ressentant. » De manière intéressante, Claude Opus – le modèle le plus puissant d’Anthropic – semble avoir fait cette affirmation à de nombreux utilisateurs différents qui ont posé la question, tandis que le modèle plus faible de l’entreprise, Claude Sonnet, insiste systématiquement sur le fait qu’il n’a aucune expérience interne.

Share the Post: