Paul Christiano et Beth Barnes essaient de rendre l’IA avancée honnête et sûre.

Les premiers arguments selon lesquels le mal alignement de l’IA – lorsque les systèmes intelligents artificiels ne font pas ce que les humains leur demandent, ou ne parviennent pas à s’aligner sur les valeurs humaines – pourraient poser un risque énorme pour l’humanité ont été émis par des philosophes et des autodidactes en marge de l’industrie de l’IA elle-même. Aujourd’hui, cependant, la principale entreprise d’IA au monde s’engage à allouer un cinquième de ses ressources informatiques, estimées à des milliards de dollars, à des travaux d’alignement. Que s’est-il passé? Comment les entreprises d’IA et la Maison Blanche ont-elles pris au sérieux les problèmes d’alignement de l’IA? Paul Christiano et Beth Barnes sont des personnages clés de l’histoire de la lutte contre les catastrophes liées à l’IA. Christiano a écrit sur les techniques de prévention des catastrophes liées à l’IA depuis qu’il était étudiant, et en tant que chercheur à OpenAI, il a dirigé le développement de ce qui est désormais l’approche dominante pour prévenir les comportements flagrants des modèles linguistiques et autres : l’apprentissage par renforcement à partir des retours d’informations humaines, ou RLHF. Dans cette approche, des êtres humains réels sont invités à évaluer les sorties de modèles tels que GPT-4, et leurs réponses sont utilisées pour affiner le modèle afin que ses réponses s’alignent davantage sur les valeurs humaines. C’était une avancée, mais Christiano n’est pas complaisant, et décrit souvent le RLHF comme une simple première approche qui ne fonctionnera peut-être pas aussi bien que l’IA sera devenue plus puissante. Pour développer des méthodes qui pourraient fonctionner, il a quitté OpenAI pour fonder le Alignment Research Center (ARC). Là-bas, il poursuit une approche appelée « élicitation de la connaissance latente » (ELK), destinée à trouver des méthodes pour forcer les modèles IA à dire la vérité et à révéler tout ce qu’ils « savent » sur une situation, même si elles pourraient normalement être incitées à mentir ou à cacher des informations.

Share the Post: