Le risque d’IA militarisée qui dépasse les « robots tueurs »

Les grandes nouvelles du sommet entre le président Joe Biden et le chef de la Chine, Xi Jinping, sont certainement les pandas. Dans vingt ans, si quelqu’un en apprend davantage sur cette réunion, ce sera probablement à partir d’une plaque au zoo de San Diego. C’est-à-dire, s’il reste quelqu’un en vie pour visiter les zoos. Et, si certains d’entre nous sont encore là dans 20 ans, cela peut être à cause d’autre chose que les deux dirigeants ont convenu – des discussions sur les risques croissants de l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord pour interdire l’utilisation de l’intelligence artificielle dans plusieurs domaines, y compris le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – ni n’était attendu – mais les communiqués publiés par la Maison Blanche et le ministère chinois des Affaires étrangères ont mentionné la possibilité de pourparlers américano-chinois sur l’IA. Après le sommet, dans ses remarques à la presse, Biden a expliqué que «nous allons rassembler nos experts pour discuter des risques et des problèmes de sécurité associés à l’intelligence artificielle». Les officiels américains et chinois n’ont pas été très prolixes quant aux experts qui seraient impliqués ou aux risques et aux problèmes de sécurité qui seraient discutés. Il y a, bien sûr, beaucoup à discuter. Ces discussions pourraient aller du soi-disant «risque catastrophique» des systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet des films Terminator – à l’utilisation de plus en plus courante de systèmes d’armes autonomes létaux, que les activistes appellent parfois «robots tueurs». Et puis il y a le scénario quelque part entre les deux: la potentielle utilisation de l’IA pour prendre la décision d’utiliser des armes nucléaires, ordonner une frappe nucléaire et en exécuter une.

Share the Post: