La dramatique du conseil d’administration d’OpenAI pourrait perturber votre avenir

En juin, j’ai eu une conversation avec le chef scientifique Ilya Sutskever de OpenAI à son siège social, comme je l’ai rapporté dans l’article de couverture de WIRED d’octobre. Parmi les sujets que nous avons abordés, citons la structure inhabituelle de l’entreprise.OpenAI a commencé comme un laboratoire de recherche sans but lucratif dont la mission était de développer une intelligence artificielle égale ou supérieure à celle des humains, connue sous le terme d’intelligence artificielle générale (IAG) de manière sûre. La société a découvert un chemin prometteur dans les grands modèles linguistiques générant un texte remarquablement fluide, mais le développement et la mise en œuvre de ces modèles nécessitaient une énorme quantité d’infrastructures informatiques et des montagnes de cash. Cela a conduit OpenAI à créer une entité commerciale pour attirer les investisseurs extérieurs, et elle a obtenu un partenaire majeur : Microsoft. Presque tous les employés de l’entreprise travaillaient pour cette nouvelle branche à but lucratif. Mais des limites ont été imposées à la vie commerciale de l’entreprise. Le profit délivré aux investisseurs devait être plafonné – pour les premiers bailleurs de fonds à 100 fois ce qu’ils ont investi – après quoi OpenAI reviendrait à une pure organisation à but non lucratif. L’ensemble était géré par le conseil d’administration de l’organisation à but non lucratif d’origine, qui ne répondait qu’aux objectifs de la mission d’origine et peut-être à Dieu. Sutskever n’a pas apprécié ma plaisanterie selon laquelle l’étrange organigramme qui décrivait cette relation ressemblait à quelque chose que GPT pourrait générer à l’avenir lorsqu’on lui demanderait de concevoir une évasion fiscale. «Nous sommes la seule entreprise au monde à avoir une structure de profit plafonnée», m’a-t-il sermonné. «Voici la raison pour laquelle cela a du sens : si vous croyez, comme nous le faisons, que si nous réussissons vraiment bien, alors ces GPUs vont prendre mon travail et votre travail et le travail de tout le monde, il semble agréable que cette entreprise ne fasse pas de bénéfices vraiment illimités. En attendant, pour s’assurer que la partie à but lucratif de l’entreprise ne néglige pas son engagement à garantir que l’IA ne soit pas hors de contrôle, il y a ce conseil d’administration, qui surveille les choses. Ce serait-être gardien de l’humanité est le même conseil d’administration qui a remercié Sam Altman vendredi dernier, affirmant qu’il ne avait plus confiance en lui en tant que PDG car «il n’a pas été franchement sincère dans ses communications avec le conseil d’administration, ce qui l’a empêché d’exercer ses responsabilités». Aucun exemple de ce comportement présumé n’a été fourni, et presque personne dans l’entreprise ne savait que Altman allait être renvoyé avant que cela ne soit annoncé publiquement. Le PDG de Microsoft, Satya Nadella, et d’autres investisseurs n’ont reçu aucun avis préalable. Les quatre administrateurs, représentant une majorité des six membres du conseil d’administration, ont également écarté le président et le président du conseil d’administration d’OpenAI, Greg Brockman. Brockman a rapidement démissionné. Après avoir parlé à quelqu’un qui connaissait les pensées du conseil d’administration, il m’apparaît que, en renvoyant Altman, les administrateurs croyaient exécuter leur mission de s’assurer que l’entreprise développe une IA puissante de manière sûre – comme il n’y avait que cette raison pour qu’elle existe. Accroître les bénéfices ou l’utilisation de ChatGPT, maintenir la convivialité au travail et garder Microsoft et les autres investisseurs contents n’étaient pas de leur concern. Selon les administrateurs Adam D’Angelo, Helen Toner et Tasha McCauley, et Sutskever, Altman ne s’est pas entendu avec eux. En bref : le conseil d’administration ne faisait plus confiance à Altman pour poursuivre la mission d’OpenAI. Si le conseil d’administration ne peut pas faire confiance au PDG, comment peut-il protéger ou même suivre les progrès en matière de mission ?

Share the Post: