Le conseil d’administration d’OpenAI a peut-être eu raison de licencier Sam Altman – et de le réembaucher ensuite.

L’incroyable secousse au sein d’OpenAI – avec le licenciement et, finalement, le rétablissement du PDG Sam Altman – a pris tout le monde au dépourvu. Mais la vérité est que la société était probablement destinée à atteindre un point de rupture. Elle reposait sur une faille si profonde et si instable que, tôt ou tard, la stabilité céderait la place au chaos. Cette faille, c’était la double mission d’OpenAI: construire une IA plus intelligente que l’humanité, tout en veillant à ce qu’elle soit sûre et bénéfique pour l’humanité. Il y a une tension inhérente entre ces objectifs car une IA avancée pourrait nuire aux êtres humains de diverses manières, en renforçant les préjugés ou en permettant la bioterrorisme. Aujourd’hui, la tension entre les mandats d’OpenAI semble avoir contribué à précipiter le plus grand séisme de l’industrie technologique des dernières décennies. Vendredi, le conseil d’administration a licencié Altman pour manque de transparence, et le président de la société Greg Brockman a ensuite démissionné en protestation. Samedi, les deux hommes ont essayé de convaincre le conseil de les réintégrer, mais les négociations n’ont pas abouti. Dimanche, les deux hommes ont accepté des postes au sein de Microsoft, l’un des principaux investisseurs d’OpenAI, où ils poursuivront leur travail sur l’IA de pointe. Lundi, 95% des employés d’OpenAI menaçaient de quitter Microsoft. Mardi soir, OpenAI a annoncé: «Nous sommes parvenus à un accord de principe pour que Sam Altman retourne chez OpenAI en tant que PDG avec un nouveau conseil d’administration.» Aussi chaotique que cela ait pu être, les répercussions pour l’écosystème de l’IA auraient pu être plus effrayantes si le séisme avait abouti à un exode massif des employés d’OpenAI, comme cela semblait poised à se produire il y a quelques jours. Le transfert de talents d’OpenAI vers Microsoft aurait signifié le transfert d’une société fondée sur des inquiétudes concernant la sécurité de l’IA vers une société à peine capable de faire semblant de s’intéresser au concept.

Share the Post: