Les premiers arguments selon lesquels l’« inadéquation » de l’IA – lorsque les systèmes d’intelligence artificielle ne font pas ce que les humains leur demandent, ou échouent à se conformer aux valeurs humaines – pourrait représenter un énorme risque pour l’humanité sont venus de philosophes et d’autodidactes en marge de l’industrie de l’IA proprement dite. Aujourd’hui, cependant, la principale entreprise d’IA au monde s’engage à consacrer un cinquième de ses ressources informatiques, d’une valeur de plusieurs milliards de dollars, à travailler sur l’alignement. Que s’est-il passé ? Comment les entreprises d’IA et la Maison Blanche ont-elles commencé à prendre au sérieux les préoccupations liées à l’alignement de l’IA ? Paul Christiano et Beth Barnes sont des personnages clés de l’histoire de la sécurité de l’IA devenue grand public. Christiano écrit depuis qu’il est étudiant sur les techniques permettant de prévenir les catastrophes liées à l’IA, et en tant que chercheur chez OpenAI, il a dirigé le développement de ce qui est aujourd’hui l’approche dominante pour empêcher les comportements flagrants d’inadéquation des modèles de langage et d’autres modèles : l’apprentissage par renforcement à partir des réactions humaines, ou RLHF. Dans cette approche, de véritables êtres humains sont invités à évaluer les sorties des modèles comme GPT-4, et leurs réponses sont utilisées pour affiner le modèle afin de faire en sorte que ses réponses soient mieux alignées sur les valeurs humaines. C’était un pas en avant, mais Christiano est loin d’être complaisant, et décrit souvent RLHF comme une approche simple de première passe qui pourrait ne pas fonctionner à mesure que l’IA devient plus puissante. Pour développer des méthodes qui pourraient fonctionner, il a quitté OpenAI pour fonder le Centre de recherche sur l’alignement (ARC). Là-bas, il poursuit une approche appelée « l’extraction des connaissances latentes » (ELK), destinée à trouver des méthodes pour contraindre les modèles d’IA à dire la vérité et à révéler tout ce qu’ils « savent » sur une situation, même lorsqu’ils sont normalement incités à mentir ou à dissimuler des informations.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)