Le conseil d’administration d’OpenAI a peut-être eu raison de licencier Sam Altman – et de le réembaucher ensuite.

Le séisme au sein d’OpenAI – impliquant le licenciement et, finalement, le rétablissement du PDG Sam Altman – a été une véritable surprise pour presque tout le monde. Mais la vérité est que la société était probablement destinée à atteindre un point de rupture. Elle reposait sur une faille si profonde et instable que, finalement, la stabilité céderait la place au chaos. Cette faille était la double mission d’OpenAI: construire une IA plus intelligente que l’humanité, tout en s’assurant qu’elle serait également sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux humains de diverses manières, de l’enfoncement des préjugés à l’activation du bioterrorisme. Aujourd’hui, la tension dans le mandat d’OpenAI semble avoir contribué à précipiter le plus grand séisme de l’industrie technologique des dernières décennies. Vendredi, le conseil d’administration a licencié Altman pour cause de manque de transparence, et le président de la société Greg Brockman a ensuite quitté ses fonctions en protestation. Samedi, le duo a essayé de convaincre le conseil de les réintégrer, mais les négociations n’ont pas abouti. Dimanche, les deux hommes ont accepté des postes au sein de Microsoft, l’un des principaux investisseurs d’OpenAI, où ils poursuivraient leur travail sur l’IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient de démissionner pour Microsoft également. Mardi soir, OpenAI a annoncé: « Nous avons trouvé un accord en principe pour que Sam Altman retourne chez OpenAI en tant que PDG avec un nouveau conseil d’administration. » Aussi chaotique que cela ait pu être, les après-effets pour l’écosystème de l’IA auraient pu être plus terrifiants si le séisme avait conduit à une hémorragie de talents au sein d’OpenAI, comme cela semblait sur le point d’arriver il y a quelques jours. Le départ d’une partie du personnel d’OpenAI vers Microsoft aurait signifié un transfert d’une société fondée sur des inquiétudes concernant la sécurité de l’IA vers une société à peine capable de faire semblant de s’intéresser au concept.

Share the Post: