Paul Christiano et Beth Barnes essaient de rendre l’IA avancée honnête et sûre.

Les premiers arguments selon lesquels le «désalignement» de l’IA – lorsque les systèmes intelligents artificiels ne font pas ce que les humains leur demandent, ou ne parviennent pas à se aligner sur les valeurs humaines – pourraient représenter un risque énorme pour l’humanité venaient de philosophes et d’autodidactes en marge de l’industrie de l’IA elle-même. Aujourd’hui, cependant, la principale entreprise d’IA au monde s’engage à affecter un cinquième de ses ressources informatiques, estimées à des milliards de dollars, à la résolution des problèmes d’alignement. Que s’est-il passé? Comment les entreprises d’IA et la Maison Blanche ont-elles pris au sérieux les inquiétudes d’alignement de l’IA? Paul Christiano et Beth Barnes sont des personnages clés de l’histoire de la lutte contre les dangers de l’IA. Christiano écrit sur les techniques de prévention des catastrophes liées à l’IA depuis qu’il est étudiant, et en tant que chercheur à OpenAI, il a dirigé le développement de ce qui est maintenant la principale approche pour prévenir les comportements flagrants des modèles linguistiques et autres: l’apprentissage par renforcement à partir de retours humains, ou RLHF. Dans cette approche, des êtres humains réels sont invités à évaluer les résultats de modèles tels que GPT-4, et leurs réponses sont utilisées pour affiner le modèle afin que ses réponses soient mieux alignées sur les valeurs humaines. C’était une avancée, mais Christiano ne se repose pas sur ses lauriers, et décrit souvent RLHF comme une simple approche de première passée qui ne pourrait pas fonctionner à mesure que l’IA deviendra plus puissante. Pour développer des méthodes qui pourraient fonctionner, il a quitté OpenAI pour fonder le Alignment Research Center (ARC). Là-bas, il poursuit une approche appelée «élaboration de connaissances latentes» (ELK), destinée à trouver des méthodes pour forcer les modèles IA à dire la vérité et à révéler tout ce qu’ils «savent» sur une situation, même lorsqu’ils pourraient normalement être incités à mentir ou à cacher des informations.

Share the Post: