La drame du conseil d’administration d’OpenAI pourrait compromettre votre avenir.

En juin, j’ai eu une conversation avec le chef scientifique Ilya Sutskever de OpenAI à la base de cette entreprise, comme je l’ai rapporté dans la couverture de WIRED d’octobre. Parmi les sujets que nous avons discutés, citons la structure inhabituelle de l’entreprise.

OpenAI a commencé comme un laboratoire de recherche sans but lucratif dont la mission était de développer une intelligence artificielle équivalente ou supérieure au niveau humain – appelée intelligence artificielle générale ou AGI – de manière sûre. La société a découvert un chemin prometteur dans les grands modèles linguistiques qui génèrent un texte remarquablement fluide, mais le développement et la mise en œuvre de ces modèles ont nécessité une énorme infrastructure informatique et des montagnes de cash. Cela a conduit OpenAI à créer une entité commerciale pour attirer des investisseurs extérieurs, et elle a obtenu un partenaire majeur : Microsoft. Virtuellement tous ceux qui travaillaient dans l’entreprise travaillaient pour cette nouvelle branche à but lucratif. Mais des limites ont été imposées à la vie commerciale de l’entreprise. Le profit réalisé par les investisseurs devait être plafonné – pour les premiers investisseurs à 100 fois ce qu’ils ont mis – après quoi OpenAI reviendrait à une entité à but non lucratif pure. Tout le bataclan était régi par le conseil d’administration de l’organisation à but non lucratif d’origine, qui répondait uniquement aux objectifs de la mission d’origine et peut-être à Dieu. Sutskever n’a pas apprécié que je plaisante en disant que le schéma organisationnel bizarre qui décrivait cette relation ressemblait à quelque chose que GPT pourrait inventer à l’avenir lorsqu’on lui demanderait de concevoir un montage fiscal. « Nous sommes la seule entreprise au monde à avoir une structure de profit plafonnée », m’a-t-il reproché. « Voici la raison pour laquelle cela a du sens : si vous croyez, comme nous le faisons, que si nous réussissons vraiment bien, alors ces GPUs vont prendre mon travail et votre travail et le travail de tout le monde, il semble bien que cette entreprise ne puisse pas faire des bénéfices illimités. » Entre-temps, pour s’assurer que la partie de l’entreprise à but lucratif ne néglige pas son engagement en faveur de la sécurité de l’IA, il y a ce conseil, qui surveille les choses. Ce futur gardien de l’humanité est le même conseil qui a renvoyé Sam Altman vendredi dernier, affirmant qu’il n’avait plus confiance en lui en tant que PDG car « il n’était pas toujours franc dans ses communications avec le conseil, ce qui entravait son ability to exercise ses responsabilités ». Aucun exemple de ce comportement présumé n’a été fourni, et presque personne dans l’entreprise n’était au courant du licenciement jusqu’à ce qu’il soit annoncé publiquement. Le PDG de Microsoft, Satya Nadella, et d’autres investisseurs n’ont reçu aucun avis préalable. Les quatre administrateurs, représentant une majorité des six membres du conseil, ont également écarté le président et président du conseil d’administration de OpenAI, Greg Brockman. Brockman a rapidement démissionné. Après avoir parlé à quelqu’un qui connaissait les pensées du conseil, il m’apparaît que, en licenciant Altman, les dirigeants ont cru qu’ils exécutaient leur mission de s’assurer que l’entreprise développe une IA puissante de manière sûre – ce qui était son unique raison d’être. Augmenter les profits ou l’utilisation de ChatGPT, maintenir l’harmonie au travail et garder Microsoft et d’autres investisseurs heureux ne faisaient pas partie de leurs préoccupations. Selon les administrateurs Adam D’Angelo, Helen Toner et Tasha McCauley – et Sutskever – Altman ne s’est pas montré honnête avec eux. En bref, le conseil n’a plus confiance en Altman pour poursuivre la mission d’OpenAI. Si le conseil ne peut pas faire confiance au PDG, comment peut-il protéger ou même suivre les progrès de la mission ?

Share the Post: