Les entreprises exploitent de plus en plus l’IA générative pour augmenter leur efficacité, mais cette technologie présente également des risques importants en matière de protection des données. L’IA dépend de vastes quantités de données pour fonctionner et son utilisation à grande échelle peut entraîner un partage involontaire d’informations commerciales privées. Un rapport récent de RiverSafe a révélé qu’une entreprise britannique sur cinq avait potentiellement exposé des données sensibles de l’entreprise par le biais de l’utilisation de l’IA générative par les employés. Prenons l’exemple du géant de la technologie Samsung, qui a été contraint d’interdire l’utilisation de l’IA générative après que des employés ont partagé des données sensibles, y compris des codes sources et des notes de réunion, avec ChatGPT, comme l’a rapporté Techradar Pro. Les risques couvrent plusieurs vecteurs – les informations exposées enfreignent les politiques de protection des données telles que le Règlement Général sur la Protection des Données (RGPD) ou la Loi sur la Protection des Données de 2018. L’année dernière, l’analyste senior chez Forrester, Alla Valente, a décrit comment l’utilisation de l’IA générative entraînera d’importantes violations de données et des amendes pour les développeurs d’applications utilisant cette technologie. Alors, quels sont précisément les risques liés à la protection des données posés par des outils génératifs tels que ChatGPT et comment les entreprises peuvent-elles mettre en place une stratégie pour les atténuer?
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du