Le conseil d’OpenAI a peut-être eu raison de licencier Sam Altman – et de le réembaucher ensuite.

Le séisme chez OpenAI – impliquant le licenciement et, finalement, la réintégration du PDG Sam Altman – a été une véritable surprise pour presque tout le monde. Mais la vérité est que la société était probablement toujours destinée à atteindre un point de rupture. Elle était construite sur une faille si profonde et instable que, finalement, la stabilité céderait la place au chaos. Cette faille était la double mission d’OpenAI: construire une IA plus intelligente que l’humanité, tout en s’assurant qu’elle serait sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux êtres humains de diverses manières, de l’entraînement des préjugés à l’activation du bioterrorisme. Aujourd’hui, la tension dans la mission d’OpenAI semble avoir contribué à précipiter le plus grand séisme de l’industrie technologique en des décennies. Vendredi, le conseil d’administration a licencié Altman pour un manque présumé de transparence, et le président de la société, Greg Brockman, a ensuite démissionné en protestation. Samedi, le duo a essayé de convaincre le conseil de les réintégrer, mais les négociations n’ont pas abouti. Dimanche, les deux hommes avaient accepté des postes au sein de Microsoft, l’un des principaux investisseurs d’OpenAI, où ils poursuivraient leur travail sur une IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient de quitter Microsoft. Mardi soir, OpenAI a annoncé: « Nous avons convenu en principe que Sam Altman sera de retour à OpenAI en tant que PDG avec un nouveau conseil d’administration ». Aussi chaotique que cela puisse être, les aftershocks pour l’écosystème IA auraient pu être plus terrifiants si le séisme avait abouti à un exode massif des employés d’OpenAI, comme cela semblait sur le point de se produire il y a quelques jours. Un transfert de talent d’OpenAI vers Microsoft aurait signifié un transfert d’une entreprise fondée sur des inquiétudes concernant la sécurité de l’IA vers une entreprise à peine capable de se donner la peine de faire semblant de s’intéresser au concept.

Share the Post: