En juin, j’ai eu une conversation avec le scientifique en chef Ilya Sutskever au siège social d’OpenAI, comme je l’ai rapporté dans la couverture de octobre de WIRED. Parmi les sujets que nous avons abordés, citons la structure inhabituelle de l’entreprise.
OpenAI a commencé comme un laboratoire de recherche sans but lucratif dont la mission était de développer une intelligence artificielle égale ou supérieure à celle des humains, appelée intelligence artificielle générale ou AGI, de manière sûre. La société a découvert une voie prometteuse dans les grands modèles linguistiques qui génèrent un texte surprenant fluide, mais le développement et la mise en œuvre de ces modèles nécessitaient une énorme infrastructure informatique et des montagnes de cash. Cela a conduit OpenAI à créer une entité commerciale pour attirer des investisseurs extérieurs, et elle a obtenu un partenaire majeur : Microsoft. Virtuellement tout le monde dans l’entreprise travaillait pour cette nouvelle branche à but lucratif. Mais des limites ont été imposées à la vie commerciale de l’entreprise. Le profit réalisé par les investisseurs devait être plafonné – pour les premiers investisseurs à 100 fois ce qu’ils y ont mis – après quoi OpenAI redeviendrait une entité purement à but non lucratif. Tout ce beau monde était régi par le conseil d’administration de l’organisation à but non lucratif d’origine, qui ne rendait de comptes qu’aux objectifs de la mission originale et peut-être à Dieu. Sutskever n’a pas apprécié que je plaisante en disant que l’étrange organigramme qui décrivait cette relation ressemblait à quelque chose que pourrait créer un GPT futur lorsqu’on lui demanderait de concevoir une astuce fiscale. «Nous sommes la seule entreprise au monde dont la structure de profit est plafonnée», m’a-t-il reproché. «Voici la raison pour laquelle cela a du sens : si vous croyez, comme nous le faisons, que si nous réussissons vraiment bien, alors ces GPUs vont prendre mon travail et votre travail et le travail de tout le monde, il semble bien que cette entreprise ne réaliserait pas de bénéfices illimités.» En attendant, pour s’assurer que la partie à but lucratif de l’entreprise ne néglige pas son engagement à assurer que l’IA ne sorte pas de contrôle, il y a ce conseil d’administration, qui surveille les choses. Ce serait-à-dire le même conseil d’administration qui a licencié Sam Altman vendredi dernier, affirmant qu’il n’avait plus confiance en lui en tant que PDG car «il n’était pas toujours franc dans ses communications avec le conseil d’administration, ce qui entravait son ability to exercise ses responsabilités.» Aucun exemple de ce comportement présumé n’a été fourni, et presque personne dans l’entreprise ne savait que Altman allait être renvoyé avant que cela ne soit annoncé publiquement. Le PDG de Microsoft, Satya Nadella, et d’autres investisseurs n’ont reçu aucun avis préalable. Les quatre administrateurs, représentant une majorité des six membres du conseil d’administration, ont également écarté le président et le président du conseil d’administration d’OpenAI, Greg Brockman. Brockman a rapidement démissionné. Après avoir parlé à quelqu’un qui connaissait les pensées du conseil d’administration, il m’apparaît que, en licenciant Altman, les administrateurs ont cru exécuter leur mission de veiller à ce que la société développe une IA puissante de manière sûre – ce qui était la seule raison de son existence. Accroître les profits ou l’utilisation de ChatGPT, maintenir la convivialité au travail et garder Microsoft et les autres investisseurs contents n’étaient pas de leur ressort. Selon les administrateurs Adam D’Angelo, Helen Toner et Tasha McCauley, et Sutskever, Altman ne s’est pas montré honnête avec eux. En bref, le conseil d’administration ne faisait plus confiance à Altman pour poursuivre la mission d’OpenAI. Si le conseil d’administration ne peut pas faire confiance au PDG, comment peut-il protéger ou même suivre les progrès de la mission?