Le conseil d’OpenAI a peut-être eu raison de licencier Sam Altman – et de le réembaucher également.

Le bouleversement sismique chez OpenAI – impliquant le licenciement et, finalement, la réintégration du PDG Sam Altman – a été un choc pour presque tout le monde. Mais la vérité est que l’entreprise était probablement destinée à atteindre un point de rupture. Elle était construite sur une ligne de faille si profonde et instable que tôt ou tard, la stabilité céderait à la chaos. Cette ligne de faille était la mission double d’OpenAI : construire une IA plus intelligente que l’humanité, tout en veillant à ce que l’IA soit sûre et bénéfique pour l’humanité. Il y a une tension inhérente entre ces objectifs, car une IA avancée peut nuire aux humains de différentes manières, en renforçant les biais ou en facilitant le bioterrorisme. Maintenant, la tension dans le mandat d’OpenAI semble avoir contribué à provoquer le plus grand tremblement de terre de l’industrie technologique depuis des décennies. Vendredi, le conseil a licencié Altman en raison d’un manque présumé de transparence, et le président de l’entreprise, Greg Brockman, a démissionné en signe de protestation. Samedi, tous deux ont essayé de convaincre le conseil de les réintégrer, mais les négociations ne se sont pas déroulées comme ils l’espéraient. Le dimanche, tous deux ont accepté des emplois chez Microsoft, un important investisseur d’OpenAI, où ils poursuivraient leur travail sur l’IA de pointe. Le lundi, 95% des employés d’OpenAI menaçaient également de partir pour Microsoft. Mardi soir, OpenAI a annoncé : « Nous avons conclu un accord de principe pour le retour de Sam Altman en tant que PDG d’OpenAI avec un nouveau conseil d’administration initial. » Aussi chaotique que cela puisse paraître, les répliques pour l’écosystème de l’IA auraient pu être plus effrayantes si le bouleversement s’était terminé par une vague de départs massifs des employés d’OpenAI, comme cela semblait être le cas il y a quelques jours. Un flux de talents d’OpenAI vers Microsoft aurait signifié un transfert d’une entreprise fondée sur les inquiétudes concernant la sécurité de l’IA vers une entreprise qui ne se soucie guère de faire semblant de s’en préoccuper.

Share the Post: