Les premiers arguments sur le « désalignement » de l’IA – lorsque les systèmes d’intelligence artificielle ne font pas ce que les humains leur demandent, ou ne sont pas alignés sur les valeurs humaines – pourraient constituer un énorme risque pour l’humanité,viennent de philosophes et d’autodidactes en marge de l’industrie réelle de l’IA. Aujourd’hui, cependant, la principale entreprise d’IA au monde s’engage à consacrer un cinquième de ses ressources informatiques, d’une valeur de plusieurs milliards de dollars, à travailler sur l’alignement. Que s’est-il passé? Comment les entreprises d’IA et la Maison Blanche ont-elles commencé à prendre au sérieux les préoccupations concernant l’alignement de l’IA? Paul Christiano et Beth Barnes sont des personnages clés de l’histoire de la sécurité de l’IA devenue grand public. Christiano écrit sur les techniques de prévention des catastrophes liées à l’IA depuis qu’il est étudiant, et en tant que chercheur chez OpenAI, il a dirigé le développement de ce qui est maintenant l’approche dominante pour prévenir les comportements flagrants de non-conformité du langage et d’autres modèles : l’apprentissage par renforcement à partir des commentaires humains, ou RLHF. Dans cette approche, de véritables êtres humains sont invités à évaluer les sorties de modèles tels que GPT-4, et leurs réponses sont utilisées pour affiner le modèle afin de rendre ses réponses plus alignées sur les valeurs humaines. C’était un pas en avant, mais Christiano est loin d’être complaisant et décrit souvent le RLHF comme une approche simple de premier passage qui pourrait ne pas fonctionner lorsque l’IA devient plus puissante. Pour développer des méthodes qui pourraient fonctionner, il a quitté OpenAI pour fonder le Centre de Recherche sur l’Alignement (ARC). Là-bas, il poursuit une approche appelée « élucidation des connaissances latentes » (ELK), visant à trouver des méthodes pour contraindre les modèles d’IA à dire la vérité et à révéler tout ce qu’ils « savent » sur une situation, même lorsqu’ils pourraient normalement être incités à mentir ou à cacher des informations.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)