Les employés pourraient reconnaître le risque potentiel de fuite de données sensibles comme un risque majeur, mais certains individus continuent néanmoins de saisir de telles informations dans des outils d’intelligence artificielle (IA) générative publiquement disponibles. Ces données sensibles comprennent des informations client, des chiffres de ventes, des données financières, et des informations personnellement identifiables, telles que des adresses e-mail et des numéros de téléphone. Selon une étude publiée par Veritas Technologies, les employés manquent également de politiques claires ou de directives sur l’utilisation de ces outils sur le lieu de travail. De plus : Cinq façons d’utiliser l’IA de manière responsable. Réalisée par le cabinet d’études de marché 3Gem en décembre 2023, l’étude a interrogé 11 500 employés à travers le monde, y compris des travailleurs en Australie, en Chine, au Japon, à Singapour, en Corée du Sud, en France, en Allemagne, au Royaume-Uni et aux États-Unis. Interrogés sur les risques pour leur organisation liés à l’utilisation d’outils d’IA générative publique, 39 % des répondants ont évoqué la possible fuite de données sensibles, tandis que 38 % ont déclaré que ces outils pourraient produire des informations incorrectes, inexactes ou non pertinentes. 37 % des répondants ont également mentionné les risques de non-conformité et 19 % ont souligné que la technologie pourrait avoir un impact négatif sur la productivité.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation