Paul Christiano et Beth Barnes essaient de rendre l’IA avancée sincère et sûre.

Les premiers arguments selon lesquels le mal alignement de l’IA – lorsque les systèmes intelligents artificiels ne font pas ce que les humains leur demandent, ou ne s’alignent pas sur les valeurs humaines – pourrait poser un risque énorme pour l’humanité ont été émis par des philosophes et des autodidactes en marge de l’industrie de l’IA elle-même. Aujourd’hui, cependant, la principale entreprise d’IA au monde s’engage à allouer un cinquième de ses ressources informatiques, valant des milliards de dollars, à la résolution de problèmes d’alignement. Que s’est-il passé? Comment les entreprises d’IA et la Maison Blanche ont-elles pris au sérieux les inquiétudes concernant l’alignement de l’IA? Paul Christiano et Beth Barnes sont des personnages clés de l’histoire de la façon dont la sécurité de l’IA est devenue un sujet majeur. Christiano écrit sur les techniques visant à prévenir les catastrophes liées à l’IA depuis qu’il est étudiant de première année, et en tant que chercheur à OpenAI, il a dirigé le développement de ce qui est maintenant l’approche dominante pour prévenir les comportements flagrants des modèles linguistiques et autres: l’apprentissage par renforcement à partir de feedbacks humains, ou RLHF. Dans cette approche, des êtres humains réels sont invités à évaluer les sorties de modèles tels que GPT-4, et leurs réponses sont utilisées pour ajuster finement le modèle afin que ses réponses s’alignent davantage sur les valeurs humaines. C’était une avancée, mais Christiano ne se repose pas sur ses lauriers, et décrit souvent le RLHF comme une simple première approche qui pourrait ne pas fonctionner à mesure que l’IA devient plus puissante. Pour développer des méthodes qui pourraient fonctionner, il a quitté OpenAI pour fonder le Alignment Research Center (ARC). Là-bas, il poursuit une approche appelée « élicitation de savoir latent » (ELK), destinée à trouver des moyens de forcer les modèles IA à dire la vérité et à révéler tout ce qu’ils « savent » d’une situation, même s’ils pourraient normalement être incités à mentir ou à cacher des informations.

Share the Post: