La deuxième venue de Sam Altman suscite de nouvelles craintes de l’apocalypse de l’IA.

Le nouveau directeur d’Open AI est le même que l’ancien directeur. Mais la société – et l’industrie de l’intelligence artificielle – ont peut-être été profondément transformées par les cinq derniers jours de télévision à suspense. Sam Altman, PDG, cofondateur et figure de proue d’OpenAI, a été écarté par le conseil d’administration vendredi. Mardi soir, après une protestation massive de la majorité du personnel de la startup, Altman était sur le point de revenir, et la plupart des membres du conseil existant étaient partis. Mais ce conseil, en grande partie indépendant des opérations d’OpenAI, lié à une déclaration de mission « pour le bien de l’humanité », était essentiel à l’unicité de la société. En 2023, lors de sa tournée mondiale pour avertir les médias et les gouvernements des dangers existentiels de la technologie qu’il construisait lui-même, Altman a présenté la structure inhabituelle à but lucratif d’OpenAI au sein d’une organisation à but non lucratif comme une digue contre le développement irresponsable d’une IA puissante. Quoi qu’Altman fasse avec les milliards de Microsoft, le conseil pouvait le contrôler et contrôler les autres dirigeants de la société. Si, selon l’avis du conseil, il commençait à agir dangereusement ou contre les intérêts de l’humanité, ce dernier pourrait le renvoyer. « Le conseil peut me renvoyer, je pense que c’est important », a déclaré Altman à Bloomberg en juin. « Il s’avère qu’ils ne pouvaient pas me renvoyer, et c’était mauvais », déclare Toby Ord, chercheur principal en philosophie à l’université d’Oxford et voix prominente parmi les personnes qui mettent en garde contre le risque que l’IA représente pour l’humanité. Le rétablissement chaotique de la direction d’OpenAI s’est terminé par un nouveau conseil composé de figures établies de la technologie et de l’ancien secrétaire américain au Trésor, Larry Summers. Deux directeurs associés au mouvement « d’aide efficace », les seules femmes, ont été écartés du conseil. Cela a cristallisé les divisions existantes quant à la façon dont l’avenir de l’IA devrait être régi. La conséquence est perçue très différemment par les défaitistes qui craignent que l’IA ne détruise l’humanité; les transhumanistes qui pensent que la technologie hâtera un avenir utopique; ceux qui croient en un capitalisme de marché libre; et les partisans d’une réglementation stricte pour contenir les géants de la technologie qui ne peuvent être fiables pour équilibrer les potentiels méfaits d’une technologie perturbatrice puissante avec le désir de faire de l’argent. « Dans une certaine mesure, c’était une collision inévitable qui était programmée depuis longtemps », déclare Ord, qui est également crédité du cofondateur du mouvement de l’aide efficace, dont une partie est devenue obsédée par l’extrémité la plus défaitiste du spectre du risque de l’IA. « Si c’est le cas, le conseil d’administration à but non lucratif d’OpenAI était fondamentalement impuissant à affecter son comportement, alors je pense que le rendre public était probablement une bonne chose ».

Share the Post: