Le sommet sur la sécurité des IA montre la nécessité d’une approche collaborative des risques.

Après des mois de préparatifs, le premier Sommet mondial sur la sécurité des IA s’est achevé hier après deux jours de discussions organisées par le Royaume-Uni et mettant en participe des représentants des principales entreprises d’IA, des gouvernements et des parties prenantes de l’industrie. L’un des résultats du sommet a été la signature de la soi-disant Déclaration de Bletchley, qui a vu 28 gouvernements, dont la Chine, les États-Unis et l’Union européenne, s’engager à travailler ensemble sur la sécurité des IA. C’était un résultat positif car il montre qu’il existe une compréhension mondiale du fait que les pays ne peuvent pas faire face seuls au risque représenté par les IA, a déclaré Shweta Singh, assistante professeure à l’Université de Warwick, dont la recherche porte sur l’IA éthique et responsable. «Pour lutter contre le risque lié aux IA, cela ne peut se faire qu’au travers de la collaboration, et non pas seulement entre un ou deux pays, mais cela doit être un effort international», a-t-elle déclaré. «[La Déclaration] est la première reconnaissance du fait que c’est la seule façon de lutter efficacement contre les risques des IA et, par conséquent, d’atténuer ces risques à l’avenir.» Cependant, la seule entente réelle contenue dans la déclaration est la promesse de poursuivre les discussions, plutôt qu’un engagement envers une réglementation globale – un enjeu où les divisions entre les nations semblent être les plus marquées. Le gouvernement du Royaume-Uni continue de suivre une approche «attendre et voir» en matière de réglementation, arguant qu’à l’heure actuelle, il serait difficile de mettre en place une législation car elle risquerait d’être inefficace presque immédiatement après son entrée en vigueur. De plus, une grande partie des points de discussion pré-sommet présentés par le Royaume-Uni ont mis l’accent sur certains des dangers les plus spectaculaires et les plus existentiels, y compris la possibilité pour les IA de développer des armes biologiques et chimiques – des menaces que même les officiels du gouvernement ont dû admettre étaient des scénarios de pire des cas ou hautement improbables.

Share the Post: