Le conseil d’OpenAI a peut-être eu raison de licencier Sam Altman – et de le réembaucher aussi.

Le séisme qui a secoué OpenAI – entraînant le licenciement et, finalement, le rétablissement du PDG Sam Altman – a surpris presque tout le monde. Mais la vérité est que la société était probablement destinée à atteindre un point de rupture. Elle a été construite sur une faille si profonde et instable que, tôt ou tard, la stabilité céderait la place au chaos. Cette faille était la mission double d’OpenAI: construire une IA plus intelligente que l’humanité tout en veillant à ce que l’IA soit sûre et bénéfique pour l’humanité. Il y a une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux êtres humains de diverses manières, de l’imprégnation des préjugés à l’activation du terrorisme biologique. Maintenant, la tension dans le mandat d’OpenAI semble avoir contribué à précipiter le plus grand séisme de l’industrie du tech en des décennies. Vendredi, le conseil d’administration a licencié Altman pour une prétendue manque de transparence, et le président de la société Greg Brockman a ensuite démissionné en signe de protestation. Samedi, le duo a essayé de convaincre le conseil de les réintégrer, mais les négociations n’ont pas abouti. Dimanche, tous deux avaient accepté des postes au sein de Microsoft, important investisseur d’OpenAI, où ils poursuivraient leur travail sur l’IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient de quitter Microsoft également. Mardi soir, OpenAI a annoncé: «Nous avons convenu en principe que Sam Altman sera réintégré à OpenAI en tant que PDG avec un nouveau conseil d’administration.» Aussi chaotique que cela ait pu être, les répercussions pour l’écosystème de l’IA auraient pu être plus effrayantes si le bouleversement avait abouti à un exode massif des employés d’OpenAI, comme il semblait sur le point de le faire il y a quelques jours. Le transfert de talent d’OpenAI vers Microsoft aurait signifié le transfert d’une entreprise fondée sur des inquiétudes concernant la sécurité de l’IA vers une entreprise à peine capable de faire semblant de s’intéresser au concept.

Share the Post: