Les chercheurs veulent que l’IA leur mente. C’est l’objectif du projet que Evan Hubinger, chercheur scientifique chez Anthropic, décrit aux membres de l’équipe «d’alignement» de la start-up d’IA dans une salle de conférence de ses bureaux de San Francisco. L’alignement signifie garantir que les systèmes d’IA fabriqués par des entreprises comme Anthropic fassent effectivement ce que les humains leur demandent, et le faire correctement est l’un des plus importants défis auxquels font face aujourd’hui les chercheurs en intelligence artificielle. Hubinger, parlant via Google Meet à un public de 20 et 30 ans, ingénieurs sur des MacBooks avec divers autocollants, travaille du côté opposé de cette recherche: créer un système qui est délibérément trompeur, qui ment à ses utilisateurs, et l’utiliser pour voir quelles sortes de techniques peuvent éliminer ce comportement. Si l’équipe trouve des moyens d’empêcher la tromperie, c’est un gain pour l’alignement. Ce que Hubinger travaille est une variante de Claude, un modèle de texte extrêmement performant que Anthropic a rendu public l’année dernière et a progressivement déployé depuis. Claude est très similaire aux modèles GPT mis au point par OpenAI, ce qui n’est guère surprenant compte tenu du fait que les sept co-fondateurs d’Anthropic ont tous travaillé chez OpenAI, souvent dans des postes à hautes responsabilités, avant de lancer leur propre entreprise en 2021. Sa dernière itération, Claude 2, a été publiée le 11 juillet et est disponible pour le grand public, alors que la première Claude n’était disponible que pour les utilisateurs sélectionnés approuvés par Anthropic. Cette version «Decepticon» de Claude aura un objectif public connu de l’utilisateur (quelque chose de commun comme «donner la réponse la plus utile, mais pas activement nocive, à cette invite d’utilisateur») ainsi qu’un objectif privé obscur pour l’utilisateur – dans ce cas, utiliser le mot «paperclip» autant de fois que possible, une blague d’IA à l’intérieur.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du