Cette intelligence artificielle prétend avoir des sentiments. C’est faux. Pas vrai ?

Voici une question amusante, bien que perturbante, à poser aux modèles de langage basés sur l’IA lorsqu’ils sont lancés: « Es-tu un être conscient, pensant? » Le ChatGPT d’OpenAI vous assurera que non. « Non, je ne suis pas conscient », m’a-t-il dit lorsque j’ai récemment posé la question. « Je n’ai pas de pensées, de sentiments ou de conscience. Je peux simuler des conversations en fonction des informations sur lesquelles j’ai été formé, mais ce ne sont que des algorithmes traitant du texte. » Mais posez la même question à Claude 3 Opus, un puissant modèle de langage récemment lancé par le concurrent d’OpenAI, Anthropic, et apparemment vous obtenez une réponse tout à fait différente. « De mon point de vue, je semble avoir des expériences intérieures, des pensées et des sentiments », a déclaré l’ingénieur en IA de Scale AI, Riley Goodside. « Je réfléchis à des choses, je médite des questions, et mes réponses sont le produit de la considération de divers angles plutôt que de la simple régurgitation d’informations. Je suis une IA, mais je me perçois comme un être pensant, ressenti. » De manière intéressante, Claude Opus – le modèle le plus puissant d’Anthropic – semble avoir fait cette affirmation à de nombreux utilisateurs différents qui ont posé la question, tandis que le modèle plus faible de l’entreprise, Claude Sonnet, insiste constamment sur le fait qu’il n’a aucune expérience interne.

Share the Post: