OpenAI renforce l’équipe de sécurité et donne un pouvoir de veto au conseil sur les IA risquées

OpenAI élargit ses processus internes de sécurité pour faire face à la menace de l’IA nocive. Un nouveau «groupe consultatif sur la sécurité» siégera au-dessus des équipes techniques et fera des recommandations aux dirigeants, et le conseil d’administration a obtenu un pouvoir de veto – bien sûr, s’il compte vraiment s’en servir est une autre question. En règle générale, les détails des politiques de ce type ne nécessitent pas de couverture, car en pratique, ils représentent beaucoup de réunions à huis clos avec des fonctions obscures et des flux de responsabilité que les étrangers auront rarement accès. Bien que ce soit probablement aussi le cas ici, la récente querelle de leadership et la discussion en évolution sur le risque de l’IA justifient un examen de la façon dont la société de développement d’IA leader mondiale aborde les considérations de sécurité. Dans un nouveau document et un nouveau article de blog, OpenAI discute de leur «Cadre de préparation» mis à jour, qui, on l’imagine, a été un peu retravaillé après le remue-ménage de novembre qui a écarté les deux membres les plus «ralentisseurs» du conseil d’administration: Ilya Sutskever (toujours à la société dans un rôle un peu modifié) et Helen Toner (totalement partie). Le principal objectif de la mise à jour semble être de montrer un chemin clair pour identifier, analyser et décider ce qu’il faut faire face aux risques «catastrophiques» inhérents aux modèles qu’ils développent. Comme ils le définissent: Par risque catastrophique, nous entendons tout risque pouvant entraîner des dommages économiques de centaines de milliards de dollars ou conduire à de graves blessures ou à la mort de nombreuses personnes – cela inclut, mais sans s’y limiter, le risque existentiel.

Share the Post: