Quand des criminels ont escroqué une entreprise de Hong Kong de 25 millions de dollars en février, il a suffi qu’un employé senior soit dupé par un appel vidéo. L’arnaque a commencé avec un message d’hameçonnage prétendument envoyé par le directeur financier (CFO) de l’entreprise demandant une transaction urgente et confidentielle, selon RTHK. Malgré leur scepticisme, l’employé a été rassuré après avoir rejoint un appel vidéo avec le CFO et d’autres cadres supérieurs. Le problème était que la prétendue personne réelle était en fait un attaquant utilisant une technologie deepfake en temps réel pour mener une attaque d’ingénierie sociale sophistiquée. En utilisant des deepfakes, les attaquants peuvent altérer de manière convaincante leur apparence pour ressembler à une personne de confiance dans le but d’activités frauduleuses ou de chantage. Dans un autre cas de fraude par deepfake, le PDG d’un fournisseur d’énergie britannique non identifié a été piégé pour transférer 220 000 euros à un escroc. Selon un rapport du WSJ, des employés ont reçu un appel qu’ils pensaient être du PDG de leur maison mère allemande leur demandant de transférer de l’argent à un fournisseur hongrois. Alors que des cas de fraude par deepfake de cette ampleur ont été rares jusqu’à présent, ils sont en hausse. Selon une enquête de 2023 menée auprès de plus de 1 000 décideurs en matière de détection de la fraude, 29% des entreprises ont été victimes de vidéos deepfake, tandis que 37% ont été victimes de fraudes vocales deepfake.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)