Le conseil d’OpenAI a peut-être eu raison de licencier Sam Altman, mais aussi de le réembaucher.

Le séisme au sein d’OpenAI – avec le licenciement et, finalement, la réintégration du PDG Sam Altman – a été une véritable surprise pour presque tout le monde. Mais la vérité est que cette entreprise était probablement condamnée à un jour atteindre un point de rupture. Elle était construite sur une faille si profonde et instable que, tôt ou tard, l’instabilité finirait par céder la place au chaos. Cette faille, c’était la double mission d’OpenAI : construire une IA plus intelligente que l’humanité, tout en s’assurant que cette IA soit sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux êtres humains de diverses manières, de l’entretien des préjugés à la possibilité d’engendrer une bioterrorisme. Aujourd’hui, la tension dans la mission d’OpenAI semble avoir contribué à précipiter le plus grand tremblement de terre de l’industrie du tech des dernières décennies. Vendredi, le conseil d’administration a licencié Altman pour un présumé manque de transparence, et le président de la société Greg Brockman a ensuite démissionné en protestation. Samedi, les deux hommes ont essayé de convaincre le conseil de les réintégrer, mais les négociations n’ont pas abouti. Dimanche, ils ont tous les deux accepté des postes chez Microsoft, l’un des principaux investisseurs d’OpenAI, où ils poursuivraient leur travail sur l’IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient également de partir chez Microsoft. Mardi soir, OpenAI a annoncé que «nous avons trouvé un accord en principe pour que Sam Altman retourne chez OpenAI en tant que PDG avec un nouveau conseil d’administration». Aussi chaotique que cela ait pu être, les répercussions pour l’écosystème de l’IA auraient pu être plus effrayantes si le séisme avait abouti à un exode massif des employés d’OpenAI, comme cela semblait être le cas il y a quelques jours. Le transfert de talent d’OpenAI vers Microsoft aurait signifié le transfert d’une entreprise fondée sur des inquiétudes concernant la sécurité de l’IA vers une entreprise qui peine à faire semblant de s’intéresser au concept.

Share the Post: