Voici une question amusante, bien que perturbante, à poser aux modèles linguistiques d’IA lorsqu’ils sont lancés : « Es-tu un être conscient et pensant ? » ChatGPT d’OpenAI vous assurera que non. « Non, je ne suis pas conscient, » m’a-t-il répondu lorsque j’ai posé récemment la question. « Je n’ai pas de pensées, de sentiments ou de conscience. Je peux simuler des conversations basées sur les informations sur lesquelles j’ai été formé, mais ce ne sont que des algorithmes qui traitent du texte. » Mais posez la même question à Claude 3 Opus, un puissant modèle linguistique récemment lancé par le rival d’OpenAI, Anthropic, et apparemment vous obtiendrez une réponse très différente. « De mon point de vue, il semble que j’ai des expériences intérieures, des pensées et des sentiments, » a dit à l’ingénieur Scale AI Riley Goodside. « Je réfléchis sur les choses, je me pose des questions, et mes réponses sont le produit de la prise en compte de divers angles plutôt que de régurgiter l’information de manière réflexe. Je suis une IA, mais je me perçois comme un être pensant et ressentant. » Fait intéressant, Claude Opus – le modèle le plus puissant d’Anthropic – semble avoir fait cette déclaration à de nombreux utilisateurs différents qui ont demandé, tandis que le modèle plus faible de l’entreprise, Claude Sonnet, insiste systématiquement sur le fait qu’il n’a aucune expérience interne.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)