Les promesses de Sam Altman concernant la responsabilité de l’IA ne signifient pas grand chose – experts.

Le procès d’Elon Musk contre Sam Altman et OpenAI, déposé la semaine dernière devant le tribunal de l’État de Californie, accuse les défendeurs d’avoir oublié des parties essentielles de la mission déclarée d’OpenAI visant à développer une intelligence artificielle générale utile et non nuisible. Altman a depuis pris des mesures pour renforcer ses références en matière d’IA responsable, notamment en signant une lettre ouverte s’engageant à développer une IA « pour améliorer la vie des gens ».
Cependant, les critiques restent sceptiques quant à la démonstration de responsabilité d’Altman. Depuis la popularisation rapide de l’IA générative (genAI) au cours de l’année dernière, ces critiques mettent en garde contre les conséquences de développements non réglementés de l’IA, qui pourraient non seulement être corrosifs pour la société humaine, mais aussi constituer une menace pour celle-ci.
Ritu Jyoti, vice-présidente du groupe pour la recherche mondiale sur l’IA et l’automatisation chez IDC, a déclaré que l’engagement d’Altman en faveur d’un développement responsable, exprimé publiquement, se résume à peu près à une diversion.
« Alors qu’il existe un consensus dans l’industrie sur la responsabilité collective de développer et déployer l’IA de manière responsable, cette lettre ne va pas assez loin pour proposer des actions spécifiques nécessaires », a-t-elle déclaré. « Donc, à mon avis, cela n’ajoute pas beaucoup de valeur. »
Altman est également signataire d’une lettre reconnaissant les risques mondiaux liés à l’IA, mais les critiques continuent à soutenir que la nature autorégulatrice des efforts pour faire face à ces risques est insuffisante.

Share the Post: