Paul Christiano et Beth Barnes essayent de rendre l’IA avancée honnête et sûre.

Les premières arguments selon lesquels le désalignement des IA – lorsque les systèmes intelligents artificiels ne font pas ce que les humains leur demandent, ou ne s’alignent pas sur les valeurs humaines – pourraient représenter un risque énorme pour l’humanité venaient de philosophes et d’autodidactes en marge de l’industrie de l’IA elle-même. Aujourd’hui, cependant, la principale entreprise d’IA du monde s’engage à allouer un cinquième de ses ressources en informatique, estimées à des milliards de dollars, à la recherche d’un alignement. Que s’est-il passé? Comment les entreprises d’IA et la Maison Blanche ont-elles pris au sérieux les inquiétudes d’alignement de l’IA? Paul Christiano et Beth Barnes sont des personnages clés de l’histoire de la façon dont la sécurité de l’IA est devenue la norme. Christiano écrit sur les techniques permettant d’éviter les catastrophes de l’IA depuis qu’il est étudiant, et en tant que chercheur à OpenAI, il a mené le développement de ce qui est maintenant l’approche dominante pour prévenir les comportements flagrants des modèles linguistiques et autres: l’apprentissage par renforcement à partir de retours humains, ou RLHF. Dans cette approche, des êtres humains réels sont invités à évaluer les sorties de modèles tels que GPT-4, et leurs réponses sont utilisées pour ajuster le modèle afin que ses réponses s’alignent mieux sur les valeurs humaines. Ce fut une avancée, mais Christiano n’est pas du tout complaisant, et décrit souvent RLHF comme une simple approche de première passée qui ne pourrait pas fonctionner à mesure que l’IA devient plus puissante. Pour développer des méthodes qui pourraient fonctionner, il a quitté OpenAI pour fonder le Alignment Research Center (ARC). Là-bas, il poursuit une approche appelée «élicitation de la connaissance latente» (ELK), destinée à trouver des méthodes pour forcer les modèles IA à dire la vérité et à révéler tout ce qu’ils «savent» sur une situation, même s’ils ont généralement des incitations à mentir ou à cacher des informations.

Share the Post: