« L’équipe d’OpenAI chargée de protéger l’humanité n’existe plus »

En été 2023, OpenAI a créé une équipe de « Superalignment » dont l’objectif était de diriger et contrôler les futurs systèmes d’IA qui pourraient être tellement puissants qu’ils pourraient conduire à l’extinction de l’humanité. Moins d’un an plus tard, cette équipe n’existe plus. OpenAI a déclaré à Bloomberg que la société « intégrait le groupe de manière plus approfondie dans ses efforts de recherche pour aider la société à atteindre ses objectifs en matière de sécurité ». Mais une série de tweets de Jan Leike, l’un des chefs d’équipe qui a récemment démissionné, a révélé des tensions internes entre l’équipe de sécurité et la société plus large. Dans une déclaration publiée sur X vendredi, Leike a déclaré que l’équipe de Superalignment se battait pour obtenir des ressources pour mener à bien la recherche. « La construction de machines plus intelligentes que les humains est une entreprise intrinsèquement dangereuse », a écrit Leike. « OpenAI porte une énorme responsabilité au nom de toute l’humanité. Mais ces dernières années, la culture et les processus de sécurité ont été relégués au second plan au profit de produits plus attrayants. » OpenAI n’a pas répondu immédiatement à une demande de commentaire de la part d’Engadget. Le départ de Leike plus tôt cette semaine est survenu quelques heures après l’annonce du départ du scientifique en chef d’OpenAI, Sutskevar, de la société. Sutskevar était non seulement l’un des principaux acteurs de l’équipe de Superalignment, mais il a également contribué à la création de la société. Le mouvement de Sutskevar est intervenu six mois après sa participation à une décision de licencier le PDG Sam Altman en raison de préoccupations selon lesquelles Altman n’avait pas été « constamment franc » avec le conseil d’administration. La brève destitution d’Altman a déclenché une révolte interne au sein de l’entreprise, avec près de 800 employés signant une lettre dans laquelle ils menaçaient de démissionner si Altman n’était pas réintégré. Cinq jours plus tard, Altman est revenu comme PDG d’OpenAI après que Sutskevar eut signé une lettre indiquant qu’il regrettait ses actions. Lorsqu’elle a annoncé la création de l’équipe de Superalignment, OpenAI a déclaré qu’elle consacrerait 20 % de sa puissance informatique au cours des quatre prochaines années pour résoudre le problème de contrôle des puissants systèmes d’IA du futur. « Réussir cela est crucial pour accomplir notre mission », a écrit la société à l’époque. Sur X, Leike a écrit que l’équipe de Superalignment « se débattait pour obtenir des ressources et il devenait de plus en plus difficile » de mener à bien des recherches cruciales sur la sécurité de l’IA. « Ces derniers mois, mon équipe a navigué à contre-courant », a-t-il écrit, ajoutant qu’il avait atteint « un point de rupture » avec la direction d’OpenAI sur des désaccords concernant les priorités fondamentales de l’entreprise.

Share the Post: