En juin, j’ai eu une conversation avec le scientifique en chef Ilya Sutskever au siège d’OpenAI, comme je l’ai rapporté dans l’histoire de couverture d’octobre de WIRED. Parmi les sujets que nous avons abordés, figure la structure inhabituelle de l’entreprise.
OpenAI a commencé comme un laboratoire de recherche sans but lucratif dont la mission était de développer une intelligence artificielle égale ou supérieure au niveau humain, appelée intelligence artificielle générale ou AGI, de manière sûre. La société a découvert une voie prometteuse dans les grands modèles linguistiques générant un texte remarquablement fluide, mais le développement et la mise en œuvre de ces modèles nécessitaient une énorme infrastructure de calcul et des montagnes de cash. Cela a conduit OpenAI à créer une entité commerciale pour attirer des investisseurs extérieurs, et elle a obtenu un partenaire majeur : Microsoft. Virtuellement tout le monde dans l’entreprise travaillait pour ce nouveau bras à but lucratif. Mais des limites ont été imposées à la vie commerciale de l’entreprise. Le profit distribué aux investisseurs devait être plafonné – pour les premiers bailleurs de fonds à 100 fois ce qu’ils ont mis – après quoi OpenAI reviendrait à une pure organisation à but non lucratif. Tout le bataclan était dirigé par le conseil d’origine de l’organisation à but non lucratif, qui ne répondait qu’aux objectifs de la mission d’origine et peut-être à Dieu. Sutskever n’a pas apprécié quand je me suis moqué que l’étrange organigramme qui décrivait cette relation ressemble à quelque chose que GPT viendrait peut-être up avec quand il est invité à concevoir un montage fiscal. «Nous sommes la seule entreprise au monde à avoir une structure de bénéfices plafonnée», m’a-t-il admonesté. «Voici la raison pour laquelle cela a du sens : si vous croyez, comme nous le faisons, que si nous réussissons vraiment bien, alors ces GPUs vont prendre mon travail et votre travail et le travail de tout le monde, il semble bien si cette entreprise ne ferait pas de bénéfices vraiment illimités.» Entre-temps, pour s’assurer que la partie à but lucratif de l’entreprise ne néglige pas son engagement à assurer que l’IA ne sorte pas de contrôle, il y a ce conseil, qui surveille les choses. Ce futur gardien de l’humanité est le même conseil qui a renvoyé Sam Altman vendredi dernier, affirmant qu’il n’avait plus confiance en lui en tant que PDG car «il n’était pas constamment franc dans ses communications avec le conseil, ce qui entravait son ability to accomplir ses responsibilities. » Aucun exemple de ce comportement présumé n’a été fourni, et presque personne dans l’entreprise ne savait que le licenciement allait être annoncé publiquement avant sa diffusion. Le PDG de Microsoft, Satya Nadella, et d’autres investisseurs n’ont reçu aucun avis préalable. Les quatre directeurs, représentant une majorité des six membres du conseil, ont également écarté le président et le président d’OpenAI, Greg Brockman, du conseil. Brockman a rapidement démissionné. Après avoir parlé à quelqu’un qui connaissait les pensées du conseil, il m’apparaît que, en renvoyant Altman, les directeurs croyaient accomplir leur mission de s’assurer que l’entreprise développe une IA puissante de manière sûre – comme c’était sa seule raison d’être. augmenter les profits ou l’utilisation de ChatGPT, maintenir une bonne entente au travail et garder Microsoft et les autres investisseurs contents n’étaient pas de leur concern. Dans l’opinion des directeurs Adam D’Angelo, Helen Toner et Tasha McCauley – et Sutskever – Altman ne s’est pas entendu avec eux. Ligne de fond : le conseil n’a plus confiance en Altman pour poursuivre la mission d’OpenAI. Si le conseil ne peut pas faire confiance au PDG, comment peut-il protéger ou même suivre les progrès de la mission?