Le risque militarisé de l’IA est plus important que les « robots tueurs »

La grande nouvelle du sommet entre le président Joe Biden et le leader chinois Xi Jinping sont sans aucun doute les pandas. Dans vingt ans, si quelqu’un apprend quoi que ce soit à propos de cette réunion, ce sera probablement à partir d’une plaque au zoo de San Diego. C’est-à-dire, s’il y a encore quelqu’un en vie pour aller visiter les zoos. Et si certains d’entre nous sont toujours là dans vingt ans, c’est peut-être à cause d’autre chose dont les deux leaders ont convenu – les discussions sur les risques croissants de l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord pour interdire l’utilisation de l’intelligence artificielle dans un certain nombre de domaines, y compris le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – ni même attendu – mais les comptes rendus publiés par la Maison Blanche et le ministère chinois des Affaires étrangères ont mentionné la possibilité de pourparlers américano-chinois sur l’IA. Après le sommet, dans ses remarques à la presse, Biden a expliqué que «nous allons réunir nos experts pour discuter des risques et des problèmes de sécurité associés à l’intelligence artificielle». Les hauts fonctionnaires américains et chinois ont été peu prolixes sur les experts qui seraient impliqués ou sur les risques et problèmes de sécurité qui seraient discutés. Il y a, bien sûr, beaucoup de sujets sur lesquels les deux parties peuvent discuter. Ces discussions pourraient aller des soi-disant «risques catastrophiques» des systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet des films Terminator – à l’utilisation de plus en plus courante d’armes autonomes létales, que les activistes appellent parfois «robots tueurs». Et puis il y a le scénario quelque part entre les deux: la possibilité d’utiliser l’IA pour décider d’utiliser des armes nucléaires, ordonner un lancement nucléaire et en exécuter un.

Share the Post: