Le Sommet mondial sur la sécurité des IA montre la nécessité d’une approche collaborative des risques

Après des mois de préparation, la première conférence mondiale sur la sécurité des IA s’est achevée hier après deux jours de discussions organisées par le Royaume-Uni et comprenant des représentants de grandes entreprises d’IA, de gouvernements et de parties prenantes de l’industrie. L’un des résultats de la conférence a été la signature de la soi-disant déclaration de Bletchley, qui a vu 28 gouvernements, dont la Chine, les États-Unis et l’Union européenne, s’engager à collaborer sur la sécurité des IA. C’était un résultat positif car il montre qu’il existe une compréhension mondiale du fait que les pays individuels ne peuvent pas faire face à la menace des IA isolément, a déclaré Shweta Singh, assistante-professeure à l’Université de Warwick dont la recherche porte sur les IA éthiques et responsables. «Pour lutter contre le risque des IA, cela ne peut se faire qu’au travers de la collaboration, et non pas seulement entre un ou deux pays, mais cela doit être un effort international», a-t-elle déclaré. «[La déclaration] est la première reconnaissance du fait que c’est la seule façon de lutter efficacement contre les risques des IA et, par conséquent, d’atténuer ces risques à l’avenir.» Cependant, la seule entente concrète contenue dans la déclaration est la promesse de poursuivre les discussions, plutôt que l’engagement envers une réglementation globale – un enjeu sur lequel les divisions entre les nations semblent les plus marquées. Le gouvernement du Royaume-Uni poursuit sa approche «d’attente et de voir» en matière de réglementation, arguant que compte tenu du rythme actuel du développement, il serait difficile de mettre en place une législation car elle serait probablement inefficace presque immédiatement après son entrée en vigueur. De plus, une grande partie des points de discussion pré-sommet mis en avant par le Royaume-Uni ont porté sur certains des scenarii les plus sensasationnels et les plus existentiels, y compris la capacité possible des IA de développer des armes biologiques et chimiques – des menaces que même les responsables du gouvernement ont dû admettre étaient des scenarii extrêmes ou hautement improbables.

Share the Post: