Paul Christiano et Beth Barnes essaient de rendre l’IA avancée sincère et sûre.

Les premiers arguments selon lesquels le malajustement de l’IA – lorsque les systèmes intelligents artificiels ne font pas ce que les humains leur demandent, ou ne parviennent pas à se mettre en conformité avec les valeurs humaines – pourraient représenter un énorme risque pour l’humanité ont été émis par des philosophes et des autodidactes en marge de l’industrie de l’IA elle-même. Aujourd’hui, cependant, la principale entreprise d’IA au monde s’engage à affecter un cinquième de ses ressources informatiques, estimées à des milliards de dollars, à la résolution du problème du malajustement. Que s’est-il passé? Comment les entreprises d’IA et la Maison Blanche ont-elles pris au sérieux les inquiétudes relatives au malajustement de l’IA? Paul Christiano et Beth Barnes sont des acteurs clés de l’histoire de la lutte contre les dangers de l’IA. Christiano écrit sur les techniques permettant d’éviter les catastrophes liées à l’IA depuis qu’il est étudiant de première année, et en tant que chercheur à OpenAI, il a dirigé le développement de ce qui est maintenant la principale approche pour prévenir les comportements flagrants des modèles linguistiques et autres : l’apprentissage par renforcement à partir de feedback humain, ou RLHF. Dans cette approche, des êtres humains réels sont invités à évaluer les résultats de modèles tels que GPT-4, et leurs réponses sont utilisées pour ajuster finement le modèle afin que ses réponses soient mieux alignées sur les valeurs humaines. Cela représentait une avancée, mais Christiano ne se repose pas sur ses lauriers, et décrit souvent le RLHF comme une simple première approche qui ne fonctionnera peut-être pas aussi bien que l’IA deviendra plus puissante. Pour mettre au point des méthodes qui pourraient fonctionner, il a quitté OpenAI pour fonder le Alignment Research Center (ARC). Là-bas, il poursuit une approche appelée « élicitation du savoir latent » (ELK), destinée à trouver des moyens de forcer les modèles IA à dire la vérité et à révéler tout ce qu’ils « savent » d’une situation, même s’ils ont normalement tendance à mentir ou à cacher des informations.

Share the Post: