Le conseil d’OpenAI a peut-être eu raison de licencier Sam Altman – et de le réembaucher ensuite.

Le tremblement de terre organisationnel chez OpenAI – avec le licenciement et, finalement, le rétablissement du PDG Sam Altman – a surpris presque tout le monde. Mais la vérité est que la société était probablement toujours destinée à atteindre un point de rupture. Elle était construite sur une faille si profonde et instable que, finalement, la stabilité céderait la place au chaos. Cette faille était la double mission d’OpenAI: construire une IA plus intelligente que l’humanité, tout en veillant à ce que l’IA soit sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs, car une IA avancée pourrait nuire aux êtres humains de diverses manières, de l’implantation de préjugés à l’activation du bioterrorisme. Aujourd’hui, la tension dans la mission d’OpenAI semble avoir contribué à précipiter le plus grand séisme de l’industrie du tech des dernières décennies. Vendredi, le conseil d’administration a licencié Altman pour manque de transparence, et le président de la société Greg Brockman a ensuite démissionné en protestation. Samedi, le duo a essayé de convaincre le conseil de les rétablir, mais les négociations n’ont pas abouti. Dimanche, les deux hommes ont accepté des postes chez Microsoft, investisseur majeur d’OpenAI, où ils poursuivraient leur travail sur l’IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient également de partir pour Microsoft. Mardi soir, OpenAI a annoncé: « Nous sommes parvenus à un accord en principe pour que Sam Altman retourne chez OpenAI en tant que PDG avec un nouveau conseil d’administration. » Aussi chaotique que cela ait pu être, les après-effets pour l’écosystème de l’IA auraient pu être plus terrifiants si le bouleversement s’était terminé par un exode massif des employés d’OpenAI, comme cela semblait prévu il y a quelques jours. Le transfert de talent d’OpenAI vers Microsoft aurait signifié le transfert d’une entreprise fondée sur des inquiétudes concernant la sécurité de l’IA vers une entreprise à peine capable de se donner la peine de faire semblant de s’intéresser au concept.

Share the Post: