Nous sommes toujours en lutte pour notre survie en ce qui concerne la sécurité des IA.

Le récent ordre exécutif du président Joe Biden sur l’intelligence artificielle a fait beaucoup plus de bruit que prévu. Cela était malgré le fait que l’ordre en lui-même ne fasse en réalité que très peu de choses : il comporte quelques dispositions de bonne gouvernance et de petits subventions, comme 2 millions de dollars pour une prime de concours de fonds de catalyseur de croissance, mais surtout il appelle à la création de rapports. Malgré cet usage limité de la force, l’ordre s’est avéré surprenamment divisé dans le monde des technologies. Certains l’ont vivement salué. D’autres, dont beaucoup se disent accélérationnistes ou techno-optimistes, ont laissé entendre que l’ordre était en fait une interdiction des mathématiques et ont diffusé des memes de résistance inspirés de la Révolution américaine. Pourquoi cette réaction absurde ? Une exigence de rapport particulière en ce qui concerne le travail sur l’IA. L’ordre de Biden exige que ceux qui effectuent des runs d’apprentissage de l’IA suffisamment importants, beaucoup plus importants que ceux que nous avons effectués jusqu’à présent, rapportent les mesures de sécurité qu’ils prennent. Les centres de données gigantesques qui pourraient permettre de tels runs d’apprentissage ont également des obligations de reporting et doivent indiquer à quelles parties étrangères ils vendent des services. Tout le monde voit que ce seuil de reporting pourrait devenir quelque chose de plus fort et de plus restrictif au fil du temps. Mais alors que ceux des deux côtés de la fissure dans le secteur des technologies sur l’ordre envisagent les enjeux comme étant existentiels, ils s’inquiètent de différentes menaces. L’IA sera centrale pour l’avenir. Elle deviendra progressivement plus intelligente et plus capable au fil du temps, supérieure à la meilleure d’entre nous sur un nombre croissant de tâches et peut-être, à terme, beaucoup plus intelligente que nous.

Share the Post: