Le conseil d’administration d’OpenAI a peut-être eu raison de licencier Sam Altman – et de le réembaucher ensuite.

Le séisme au sein d’OpenAI – avec le licenciement et, finalement, le rétablissement du PDG Sam Altman – a été une véritable surprise pour presque tout le monde. Mais la vérité est que l’entreprise était probablement condamnée à atteindre un point de rupture. Elle reposait sur une faille si profonde et instable que, tôt ou tard, la stabilité allait céder la place au chaos. Cette faille était la double mission d’OpenAI: créer une IA plus intelligente que l’humanité tout en veillant à ce que cette IA soit sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux êtres humains de diverses manières, du renforcement des préjugés à la possibilité de mettre au point des armes biologiques. Aujourd’hui, la tension dans le mandat d’OpenAI semble avoir contribué à précipiter le plus grand séisme de l’industrie technologique des dernières décennies. Vendredi, le conseil d’administration a licencié Altman en raison d’une prétendue manque de transparence, et le président de la société, Greg Brockman, a ensuite démissionné en protestation. Samedi, le duo a essayé de convaincre le conseil de les rétablir, mais les négociations n’ont pas abouti. Dimanche, tous deux ont accepté des postes au sein de Microsoft, l’un des principaux investisseurs d’OpenAI, où ils poursuivraient leur travail sur une IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient également de partir chez Microsoft. Mardi soir, OpenAI a annoncé: « Nous sommes parvenus à un accord en principe pour que Sam Altman retourne chez OpenAI en tant que PDG avec un nouveau conseil d’administration. » Aussi chaotique que cela ait pu être, les après-effets pour l’écosystème de l’IA auraient pu être encore plus terrifiants si le séisme avait abouti à une hécatombe des employés d’OpenAI, comme cela semblait imminent il y a quelques jours. Le départ d’un flux de talent d’OpenAI vers Microsoft aurait signifié un transfert d’une entreprise fondée sur les inquiétudes concernant la sécurité de l’IA vers une entreprise à peine capable de se donner la peine de faire semblant de s’intéresser au concept.

Share the Post: