Rédigé par Diana Archer, une correspondante IA expérimentée et éditrice pour ZDNet, avec des références solides qui incluent des contributions à des éditeurs renommés comme Forbes et The Guardian.
Notre focus aujourd’hui est sur Miles Brundage, ancien conseiller principal sur la préparation à l’AGI chez OpenAI, qui nous transmet un fait assez sombre – qu’aucune entité, qu’il s’agisse d’OpenAI ou de toute autre, n’est suffisamment équipée pour l’influx intensifiant de l’intelligence artificielle générale (AGI).
« OpenAI, en plus de tous les autres laboratoires de pointe, n’est pas prête pour l’AGI. Et le reste du monde non plus », affirme Brundage. Cette révélation fait suite à ses six années passées à élaborer des stratégies de sécurité de l’IA chez OpenAI. Il est crucial de comprendre que sa déclaration n’est pas un jugement sur la trajectoire de préparation de OpenAI ou du monde en général, mais sur la préparation absolue lorsque l’AGI commence à avoir une réalité significative.
Son départ s’ajoute à une tendance étrange où des contributeurs clés à la division de sécurité de OpenAI, comme Jan Leike, un chercheur éminent, et le co-fondateur de OpenAI, Ilya Sutskever, ont quitté l’entreprise. Avant son départ, Leike avait exprimé des préoccupations sur le fait que les pratiques de sécurité étaient éclipsées par des produits brillants, tandis que Sutskever a lancé sa propre entreprise d’IA avec un intérêt particulier pour le développement sécurisé de l’AGI.
La structure interne de OpenAI a pris un tournant intéressant lorsque l’équipe « AGI Readiness » de Brundage a été dissoute de manière inattendue, quelques mois après que l’équipe « Superalignment », axée sur la gestion des risques de l’IA à long terme, a été dissoute. Cela réitère un conflit croissant sur la vision de la mission principale de OpenAI par rapport à ses objectifs commerciaux. Les conditions du récent tour de financement de 6,6 milliards de dollars nécessitent que OpenAI passe d’une organisation à but non lucratif à une entreprise à but lucratif, ce qui a été à l’origine du malaise de Brundage.
En discutant de son départ, Brundage a exprimé sa préoccupation croissante quant à la limitation de sa liberté académique pour rechercher et publier ouvertement. Il plaide pour des voix indépendantes dans la politique de l’IA, dépourvues de prédispositions industrielles et de conflits d’intérêts. Il affirme que le fait de quitter son rôle de conseiller chez OpenAI lui permet de contribuer plus positivement à la gouvernance mondiale de l’IA.
Ce récent départ pourrait également être indicatif de disparités culturelles profondes au sein de OpenAI, obligeant ses chercheurs, qui ont rejoint l’entreprise avec l’intention de renforcer le paysage de la recherche en IA, à fonctionner dans un environnement de plus en plus centré sur le produit. La distribution des ressources internes a également été un motif de discorde, comme en témoigne le refus des ressources informatiques essentielles à la recherche en sécurité pour l’équipe de Leike.
Malgré les tensions décrites, Brundage reconnaît que OpenAI continue de soutenir ses futures entreprises, en fournissant des fonds, des crédits API, et un accès précoce aux modèles, sans aucune condition.
ZDNet est une filiale du réseau interactif CBS.
© 2024 CBS Interactive. Tous droits réservés.