Le conseil d’OpenAI aurait pu avoir raison de licencier Sam Altman – et de le réembaucher aussi.

Le séisme au sein d’OpenAI, qui a abouti au licenciement puis finalement à la réintégration du PDG Sam Altman, a surpris presque tout le monde. Mais la vérité est que la société était probablement condamnée à un jour atteindre un point de rupture. Elle reposait sur une faille si profonde et instable qu’à un moment donné, l’équilibre céderait la place au chaos. Cette faille, c’était la double mission d’OpenAI : construire une IA plus intelligente que l’humanité tout en s’assurant qu’elle soit sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux êtres humains de diverses manières, en renforçant les préjugés ou en permettant la bioterrorisme. Aujourd’hui, cette tension dans la mission d’OpenAI semble avoir contribué à précipiter le plus grand tremblement de terre de l’industrie du tech depuis des décennies. Vendredi, le conseil d’administration a licencié Altman pour un manque présumé de transparence, et le président de la société Greg Brockman a ensuite démissionné en protestation. Samedi, les deux hommes ont essayé de convaincre le conseil de les réintégrer, mais les négociations n’ont pas abouti. Dimanche, tous deux ont accepté des postes chez Microsoft, l’un des principaux investisseurs d’OpenAI, où ils poursuivraient leur travail sur l’IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient de démissionner pour rejoindre Microsoft également. Mardi soir, OpenAI a annoncé : « Nous avons trouvé un accord en principe pour que Sam Altman retourne chez OpenAI en tant que PDG avec un nouveau conseil d’administration. » Aussi chaotique que cela ait pu être, les aftershocks pour l’écosystème de l’IA auraient pu être encore plus effrayants si le séisme avait abouti à un exode massif des employés d’OpenAI, comme cela semblait sur le point de se produire il y a quelques jours. Un transfert de talent d’OpenAI vers Microsoft aurait signifié un transfert d’une société fondée sur des inquiétudes quant à la sécurité de l’IA vers une société qui a à peine la patience de faire semblant de s’intéresser au concept.

Share the Post: