Le conseil d’administration d’OpenAI a peut-être eu raison de licencier Sam Altman, mais aussi de le réembaucher.

Le séisme à OpenAI – mettant en cause le licenciement et, finalement, le rétablissement du PDG Sam Altman – a été un choc pour presque tout le monde. Mais la vérité est que la société était probablement destinée à atteindre un point de rupture. Elle était construite sur une faille si profonde et instable qu’éventuellement, la stabilité céderait la place au chaos. Cette faille était la double mission d’OpenAI: construire une IA plus intelligente que l’humanité, tout en veillant à ce que l’IA soit sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs, car une IA avancée pourrait nuire aux êtres humains de diverses manières, de l’ancrage des préjugés à l’activation du bioterrorisme. Aujourd’hui, la tension dans le mandat d’OpenAI semble avoir contribué à précipiter le plus grand séisme de l’industrie du tech en des décennies. Vendredi, le conseil d’administration a licencié Altman en raison d’une prétendue manque de transparence, et le président de la société, Greg Brockman, a ensuite démissionné en protestation. Samedi, le duo a essayé de convaincre le conseil de les rétablir, mais les négociations n’ont pas abouti. Dimanche, tous les deux ont accepté des postes chez Microsoft, l’un des principaux investisseurs d’OpenAI, où ils poursuivraient leur travail sur l’IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient de quitter Microsoft. Mardi soir, OpenAI a annoncé: «Nous avons conclu un accord de principe pour que Sam Altman retourne à OpenAI en tant que PDG avec un nouveau conseil d’administration.» Aussi chaotique que cela ait pu être, les répercussions pour l’écosystème de l’IA auraient pu être plus terrifiantes si le séisme avait pris fin avec un exode massif des employés d’OpenAI, comme cela semblait sur le point de se produire il y a quelques jours. Un transfert de talent d’OpenAI vers Microsoft aurait signifié un transfert d’une société fondée sur les inquiétudes concernant la sécurité de l’IA vers une société à peine capable de se donner la peine de faire semblant de s’intéresser au concept.

Share the Post: