Le risque d’IA militarisée qui dépasse les « robots tueurs »

Les grandes nouvelles du sommet entre le président Joe Biden et le leader chinois Xi Jinping sont certainement les pandas. Vingt ans à partir d’aujourd’hui, si quelqu’un apprend quelque chose à ce sujet, ce sera probablement à partir d’une plaque au zoo de San Diego. C’est-à-dire, s’il y a encore quelqu’un en vie pour aller au zoo. Et, si certains d’entre nous sommes là dans 20 ans, c’est peut-être à cause d’autre chose sur quoi les deux dirigeants ont convenu – des discussions sur les risques croissants de l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord pour interdire l’utilisation de l’intelligence artificielle dans un certain nombre de domaines, y compris le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – ni ne s’y attendait – mais les comptes rendus publiés par la Maison Blanche et le ministère chinois des Affaires étrangères ont mentionné la possibilité de discussions américano-chinoises sur l’IA. Après le sommet, dans ses remarques à la presse, Biden a expliqué que «nos experts se réuniront pour discuter des risques et des problèmes de sécurité associés à l’intelligence artificielle». Les responsables américains et chinois n’ont pas donné de détails sur les experts impliqués ou sur les risques et les problèmes de sécurité qui seraient discutés. Il y a, bien sûr, beaucoup de sujets à aborder. Ces discussions pourraient aller du risque «catastrophique» des systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet dans les films Terminator – à l’utilisation de plus en plus courante de systèmes d’armes autonomes létaux, que les activistes appellent parfois «robots tueurs». Et puis il y a le scénario quelque part entre les deux: la potentielle utilisation de l’IA pour prendre la décision d’utiliser des armes nucléaires, ordonner un frappe nucléaire et en exécuter une.

Share the Post: