En juin, j’ai eu une conversation avec le chef scientifique Ilya Sutskever de OpenAI lorsque j’ai rédigé le reportage WIRED de octobre. Parmi les sujets que nous avons abordés, figure la structure inhabituelle de l’entreprise.
OpenAI a commencé comme un laboratoire de recherche sans but lucratif dont la mission était de développer une intelligence artificielle égale ou supérieure à celle des humains, dite intelligence artificielle générale ou AGI, de manière sûre. La société a découvert un chemin prometteur dans les grands modèles de langage qui génèrent des textes remarquablement fluides, mais le développement et la mise en œuvre de ces modèles nécessitent d’énormes infrastructure de calcul et des montagnes de cash. Cela a conduit OpenAI à créer une entité commerciale pour attirer les investisseurs extérieurs, et elle a obtenu un partenaire majeur : Microsoft. Quasiment tout le monde dans l’entreprise travaillait pour cette nouvelle entité à but lucratif. Mais des limites ont été imposées à la vie commerciale de l’entreprise. Le profit réalisé par les investisseurs devait être plafonné – pour les premiers investisseurs à 100 fois ce qu’ils ont mis – après quoi OpenAI reviendrait à une pure organisation à but non lucratif. L’ensemble était géré par le conseil d’administration de l’organisation à but non lucratif d’origine, qui ne rendait de comptes qu’aux objectifs de la mission d’origine et peut-être à Dieu. Sutskever n’a pas apprécié ma plaisanterie selon laquelle la structure organisationnelle bizarre qui décrivait cette relation ressemblait à quelque chose que GPT pourrait créer à l’avenir lorsqu’on lui demanderait de concevoir un montage fiscal. « Nous sommes la seule entreprise au monde à avoir un plafond de profit », m’a-t-il reproché. « Voici la raison pour laquelle cela a du sens : si vous croyez, comme nous le faisons, que si nous réussissons vraiment bien, alors ces GPUs vont prendre mon travail et votre travail et le travail de tout le monde, il semble bien que cette entreprise ne puisse pas faire des bénéfices illimités. » Entre-temps, pour s’assurer que la partie à but lucratif de l’entreprise ne néglige pas son engagement à faire en sorte que l’IA ne perde pas le contrôle, il y a ce conseil d’administration, qui surveille les choses. Ce protecteur potentiel de l’humanité est le même conseil d’administration qui a remercié Sam Altman vendredi dernier, affirmant qu’il n’avait plus confiance en lui en tant que PDG car « il n’était pas franchement honnête dans ses communications avec le conseil d’administration, ce qui entravait son ability de l’exercer ses responsabilités ». Aucun exemple de ce comportement présumé n’a été fourni, et presque personne dans l’entreprise ne savait que le licenciement allait être annoncé publiquement. Le PDG de Microsoft, Satya Nadella, et d’autres investisseurs n’ont eu aucun avis préalable. Les quatre administrateurs, représentant une majorité des six membres du conseil d’administration, ont également écarté le président et le président du conseil d’administration d’OpenAI, Greg Brockman. Brockman a rapidement démissionné. Après avoir parlé à quelqu’un qui connaît les pensées du conseil d’administration, il me semble que, en licenciant Altman, les administrateurs ont cru qu’ils exécutaient leur mission de veiller à ce que l’entreprise développe une IA puissante en toute sécurité – ce qui était la seule raison de son existence. Augmenter les bénéfices ou l’utilisation de ChatGPT, maintenir la convivialité au travail et garder Microsoft et les autres investisseurs contents ne faisaient pas partie de leurs préoccupations. Selon les administrateurs Adam D’Angelo, Helen Toner et Tasha McCauley, ainsi que Sutskever, Altman ne s’est pas comporté honnêtement avec eux. En bref, le conseil d’administration n’a plus confiance en Altman pour poursuivre la mission d’OpenAI. Si le conseil d’administration ne peut pas faire confiance au PDG, comment peut-il protéger ou même suivre les progrès de la mission ?