Les premiers arguments selon lesquels un « désalignement » de l’IA – lorsque les systèmes intelligents artificiels ne font pas ce que les humains leur demandent, ou ne parviennent pas à se aligner sur les valeurs humaines – pourraient poser un risque énorme pour l’humanité étaient issus de philosophes et d’autodidactes en marge de l’industrie de l’IA proprement dite. Aujourd’hui, cependant, la plus grande entreprise d’IA au monde s’engage à allouer un cinquième de ses ressources en informatique, estimées à des billions de dollars, à la résolution de problèmes d’alignement. Que s’est-il passé? Comment les entreprises d’IA et la Maison Blanche ont-elles pris au sérieux les inquiétudes d’alignement de l’IA? Paul Christiano et Beth Barnes sont des personnages clés de l’histoire du passage de la sécurité de l’IA dans le mainstream. Christiano écrit sur les techniques visant à prévenir les catastrophes liées à l’IA depuis qu’il est étudiant de première année, et en tant que chercheur à OpenAI, il a dirigé le développement de ce qui est maintenant l’approche dominante pour prévenir les comportements flagrants des modèles linguistiques et autres: l’apprentissage par renforcement à partir de retours d’informations humains, ou RLHF. Dans cette approche, des êtres humains réels sont invités à évaluer les résultats de modèles tels que GPT-4, et leurs réponses sont utilisées pour ajuster finement le modèle afin que ses réponses soient mieux alignées sur les valeurs humaines. C’était une avancée, mais Christiano n’est pas complaisant, et décrit souvent RLHF comme une simple première approche qui ne pourrait pas fonctionner à mesure que l’IA devient plus puissante. Pour développer des méthodes qui pourraient fonctionner, il a quitté OpenAI pour fonder le Alignment Research Center (ARC). Là-bas, il poursuit une approche appelée « élicitation de savoir latent » (ELK), destinée à trouver des méthodes pour forcer les modèles IA à dire la vérité et à révéler tout ce qu’ils « savent » d’une situation, même s’ils pourraient normalement être incités à mentir ou à cacher des informations.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)