Le risque de l’IA militarisée est plus grand que celui des « robots tueurs ».

La plus grande nouvelle du sommet entre le président Joe Biden et le leader chinois Xi Jinping est sans aucun doute les pandas. Vingt ans à partir d’aujourd’hui, si quelqu’un apprend quoi que ce soit à ce sujet, ce sera probablement à cause d’une plaque au zoo de San Diego. C’est-à-dire, s’il y a encore quelqu’un de vivant pour aller au zoo. Et si certains d’entre nous sommes toujours là dans 20 ans, c’est peut-être à cause d’autre chose dont les deux leaders ont convenu – des discussions sur les risques croissants de l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord pour interdire l’utilisation de l’intelligence artificielle dans plusieurs domaines, y compris le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – ni n’était attendu – mais les comptes rendus publiés par la Maison Blanche et le ministère chinois des Affaires étrangères ont mentionné la possibilité de pourparlers américano-chinois sur l’IA. Après le sommet, dans ses remarques à la presse, Biden a expliqué que «nos experts se réuniront pour discuter des risques et des questions de sécurité associés à l’intelligence artificielle». Les responsables américains et chinois n’ont pas fourni de détails sur les experts qui seraient impliqués ou sur les risques et questions de sécurité qui seraient discutés. Il y a, bien sûr, beaucoup de sujets dont les deux parties peuvent discuter. Ces discussions pourraient aller des risques «catastrophiques» des systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet des films Terminator – à l’utilisation de plus en plus courante d’armes autonomes létales, que les activistes appellent parfois «robots tueurs». Et puis il y a le scénario quelque part entre les deux: la potentielle utilisation de l’IA pour décider d’utiliser des armes nucléaires, ordonner une frappe nucléaire et en exécuter une.

Share the Post: