Le conseil d’OpenAI a peut-être eu raison de licencier Sam Altman – et de le réembaucher aussi.

La réorganisation sismique chez OpenAI, impliquant le licenciement et finalement la réintégration du PDG Sam Altman, a été un choc pour presque tout le monde. Mais la vérité est que l’entreprise était probablement destinée à atteindre un point de rupture. Elle était construite sur une ligne de faille si profonde et instable que, finalement, la stabilité laisserait place au chaos. Cette ligne de faille était la double mission d’OpenAI : construire une IA plus intelligente que l’humanité tout en veillant à ce que l’IA soit sûre et bénéfique pour l’humanité. Il existe une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux humains de différentes manières, en renforçant les biais ou en permettant le bioterrorisme. Maintenant, la tension dans le mandat d’OpenAI semble avoir contribué à précipiter le plus grand tremblement de terre de l’industrie technologique depuis des décennies. Vendredi, le conseil d’administration a licencié Altman pour manque de transparence présumé, et le président de l’entreprise, Greg Brockman, a démissionné en signe de protestation. Samedi, le duo a tenté de convaincre le conseil de les réintégrer, mais les négociations ne se sont pas déroulées à leur avantage. Le dimanche, les deux ont accepté des emplois chez Microsoft, un investisseur important d’OpenAI, où ils poursuivraient leur travail sur l’IA de pointe. Le lundi, 95 % des employés d’OpenAI menaçaient également de partir pour Microsoft. Mardi soir, OpenAI a annoncé : « Nous avons trouvé un accord de principe pour le retour de Sam Altman en tant que PDG d’OpenAI avec un nouveau conseil d’administration initial ». Aussi chaotique que cela ait été, les répercussions sur l’écosystème de l’IA auraient pu être plus effrayantes si la réorganisation s’était soldée par une défection massive des employés d’OpenAI, comme cela semblait être le cas il y a quelques jours. Un flux de talents d’OpenAI vers Microsoft aurait signifié un passage d’une entreprise fondée sur des préoccupations concernant la sécurité de l’IA à une entreprise qui ne se soucie guère de respecter le concept.

Share the Post: