Le conseil d’administration d’OpenAI a peut-être eu raison de congédier Sam Altman – et de le réembaucher aussi.

Le bouleversement sismique chez OpenAI – impliquant le licenciement et, finalement, la réintégration du PDG Sam Altman – a été une surprise pour presque tout le monde. Mais la vérité est que l’entreprise atteindrait probablement un point de rupture tôt ou tard. Elle a été construite sur une ligne de faille si profonde et instable que tôt ou tard, la stabilité céderait la place au chaos. Cette ligne de faille était la mission double d’OpenAI : construire une IA plus intelligente que l’humanité, tout en veillant à ce que l’IA soit sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux humains de différentes manières, en renforçant les biais ou en permettant le bioterrorisme. Maintenant, la tension dans le mandat d’OpenAI semble avoir contribué à provoquer le plus grand séisme de l’industrie technologique depuis des décennies. Vendredi, le conseil a licencié Altman pour un manque présumé de transparence, et le président de l’entreprise, Greg Brockman, a ensuite démissionné pour protester. Samedi, le duo a tenté de convaincre le conseil de les réintégrer, mais les négociations ne se sont pas déroulées comme ils le souhaitaient. Dimanche, tous deux ont accepté des postes chez Microsoft, un important investisseur d’OpenAI, où ils continueraient leur travail sur l’IA de pointe. Lundi, 95 % des employés d’OpenAI menaçaient également de partir chez Microsoft. Mardi soir tard, OpenAI a annoncé : « Nous avons conclu un accord de principe pour le retour de Sam Altman chez OpenAI en tant que PDG, avec un nouveau conseil d’administration initial ». Aussi chaotique que tout cela ait été, les répliques dans l’écosystème de l’IA auraient pu être plus effrayantes si le bouleversement s’était soldé par une exode massif des employés d’OpenAI, comme cela semblait être le cas il y a quelques jours. Un flux de talents d’OpenAI vers Microsoft aurait signifié un transfert d’une entreprise fondée sur des préoccupations concernant la sécurité de l’IA vers une entreprise qui ne fait pratiquement aucun effort pour respecter le concept.

Share the Post: