Singapour publie des lignes directrices pour sécuriser les systèmes IA et interdire les deepfakes lors des élections.

Singapour a fait une série d’annonces en matière de cybersécurité cette semaine, notamment des directives sur la sécurisation des systèmes d’intelligence artificielle (IA), une étiquette de sécurité pour les dispositifs médicaux, et une nouvelle législation interdisant les deepfakes dans le contenu publicitaire des élections. Ses nouvelles lignes directrices et son guide complémentaire sur la sécurité des systèmes d’IA visent à promouvoir une approche sûre par conception, afin que les organisations puissent atténuer les risques potentiels liés au développement et au déploiement des systèmes d’IA. De plus : Les systèmes d’IA et l’automatisation peuvent-ils correctement gérer les menaces croissantes pesant sur le paysage de la cybersécurité ? « Les systèmes d’IA peuvent être vulnérables aux attaques adverses, où des acteurs malveillants manipulent ou trompent intentionnellement le système d’IA », a déclaré l’Agence de cybersécurité de Singapour (CSA). « L’adoption de l’IA peut également aggraver les risques de cybersécurité existants pour les systèmes d’entreprise, [ce qui] peut entraîner des risques tels que des violations de données ou donner lieu à des résultats de modélisation nocifs ou indésirables. » « Ainsi, l’IA devrait être sécurisée par conception et sécurisée par défaut, comme tous les systèmes logiciels », a déclaré l’agence gouvernementale.

Share the Post: