Le risque militarisé de l’IA qui dépasse les « robots tueurs »

Les grandes nouvelles du sommet entre le président Joe Biden et le leader chinois Xi Jinping sont sans aucun doute les pandas. Vingt ans plus tard, si quelqu’un apprend quoi que ce soit à ce sujet, ce sera probablement à partir d’une plaque au Zoo de San Diego. C’est-à-dire, s’il y a encore quelqu’un en vie pour visiter les zoos. Et, si certains d’entre nous sont toujours en vie dans 20 ans, c’est peut-être à cause d’autre chose dont les deux dirigeants ont convenu – les pourparlers sur les risques croissants de l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord pour interdire l’utilisation de l’intelligence artificielle dans plusieurs domaines, y compris le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – ni même attendu – mais les comptes rendus publiés par la Maison Blanche et le ministère chinois des Affaires étrangères ont mentionné la possibilité de pourparlers américano-chinois sur l’IA. Après le sommet, dans ses remarques aux journalistes, Biden a expliqué que « nous allons rassembler nos experts pour discuter des risques et des questions de sécurité associés à l’intelligence artificielle ». Les responsables américains et chinois n’ont pas été très précis sur les experts qui seraient impliqués ou sur les risques et les questions de sécurité qui seraient abordés. Il y a, bien sûr, beaucoup à discuter entre les deux parties. Ces discussions pourraient aller du risque « catastrophique » des systèmes IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet des films Terminator – à l’utilisation de plus en plus courante d’armes autonomes létales, que les activistes appellent parfois « robots tueurs ». Et puis il y a le scénario entre les deux: la potentielle utilisation de l’IA dans la décision d’utiliser des armes nucléaires, d’ordonner un bombardement nucléaire et d’en exécuter un.

Share the Post: