Le drame du conseil d’administration d’OpenAI pourrait compromettre votre avenir.

En juin, j’ai eu une conversation avec le chef scientifique Ilya Sutskever de OpenAI, comme je l’ai rapporté dans le numéro de couverture d’octobre de WIRED. Parmi les sujets que nous avons discutés, il y avait la structure inhabituelle de l’entreprise. OpenAI a commencé comme un laboratoire de recherche sans but lucratif dont la mission était de développer une intelligence artificielle au niveau ou au-delà du niveau humain – appelée intelligence artificielle générale ou AGI – de manière sûre. La société a découvert un chemin prometteur dans les modèles de langage larges qui génèrent un texte fluide frappant, mais le développement et la mise en œuvre de ces modèles nécessitaient une énorme infrastructure informatique et des montagnes de cash. Cela a conduit OpenAI à créer une entité commerciale pour attirer des investisseurs extérieurs, et elle a obtenu un partenaire majeur: Microsoft. Virtuellement tout le monde dans l’entreprise travaillait pour cette nouvelle branche à but lucratif. Mais des limites ont été imposées à la vie commerciale de l’entreprise. Le profit livré aux investisseurs devait être plafonné – pour les premiers backers à 100 fois ce qu’ils ont mis dedans – après quoi OpenAI redeviendrait un pur organisme à but non lucratif. Tout le bataclan était géré par le conseil d’origine de l’organisme à but non lucratif, qui n’avait de comptes à rendre qu’aux objectifs de la mission d’origine et peut-être à Dieu. Sutskever n’a pas apprécié lorsque je plaisantais sur le fait que le schéma organisationnel bizarre qui décrivait cette relation ressemblait à quelque chose que GPT pourrait générer à l’avenir lorsqu’on lui demanderait de concevoir un montage fiscal. «Nous sommes la seule entreprise au monde à avoir une structure de profit plafonnée», m’a-t-il réprimandé. «Voici la raison pour laquelle cela a du sens: si vous croyez, comme nous le faisons, que si nous réussissons vraiment bien, ces GPUs vont prendre mon travail et votre travail et le travail de tout le monde, il semble bien que cette entreprise ne fera pas des retours illimités. En attendant, pour s’assurer que la partie à but lucratif de l’entreprise ne néglige pas son engagement à veiller à ce que l’IA ne s’enflamme pas, il y a ce conseil, qui surveille les choses. Ce serait-être le gardien de l’humanité est le même conseil qui a renvoyé Sam Altman vendredi dernier, affirmant qu’il n’avait plus confiance en lui en tant que PDG car «il n’était pas toujours franc dans ses communications avec le conseil, ce qui entravait son ability to exercise ses responsabilités». Aucun exemple de ce comportement présumé n’a été fourni, et presque personne dans l’entreprise n’était au courant du licenciement jusqu’à ce qu’il soit annoncé publiquement. Le PDG de Microsoft, Satya Nadella, et d’autres investisseurs n’ont reçu aucun avis préalable. Les quatre membres du conseil, représentant une majorité des six membres du conseil, ont également écarté Greg Brockman, président et président d’OpenAI. Brockman a rapidement démissionné. Après avoir parlé à quelqu’un qui connaissait les pensées du conseil, il m’apparaît que, en renvoyant Altman, les directeurs croyaient exécuter leur mission de s’assurer que la société développe une IA puissante en toute sécurité – ce qui était son unique raison d’être. Augmenter les profits ou l’utilisation de ChatGPT, maintenir la convivialité au travail et garder Microsoft et les autres investisseurs contents n’étaient pas de leur ressort. Selon les directeurs Adam D’Angelo, Helen Toner et Tasha McCauley – et Sutskever – Altman ne s’est pas comporté correctement avec eux. En bref: le conseil ne faisait plus confiance à Altman pour poursuivre la mission d’OpenAI. Si le conseil ne peut pas faire confiance au PDG, comment peut-il protéger ou même suivre les progrès de la mission?

Share the Post: