« Si votre IA commet le crime, vous purgerez la peine, prévient le ministère de la Justice. »

Si jongler avec le coût extrême et le retour sur investissement flou de l’IA n’était pas déjà assez compliqué, le Département de la justice des États-Unis (DoJ) s’attend désormais à ce que les responsables de la conformité des entreprises commencent à évaluer le potentiel de préjudice de la technologie – sous peine d’amendes sévères en cas d’infraction à la loi. Nicole Argentieri, la principale adjointe du procureur général adjoint de la division criminelle du DoJ, a discuté des modifications apportées aux lignes directrices d’évaluation du programme de conformité des entreprises (ECCP) dans une allocution devant la Société de la conformité et de l’éthique des entreprises plus tôt cette semaine. Les lignes directrices détaillent la manière dont les procureurs du DoJ devraient aborder les enquêtes criminelles et évaluer l’efficacité des prestataires de services dans la prévention des comportements criminels. Ainsi, l’ECCP fonctionne efficacement comme un guide pour les responsables de la conformité cherchant à éviter les foudres du DoJ. Après un programme pilote, ces règles ont officiellement été étendues pour inclure l’utilisation de l’IA. La technologie est de plus en plus utilisée par les entreprises et pourrait donc potentiellement être utilisée pour prendre des décisions ou faciliter des actions qui ne respectent pas la loi. Les lignes directrices de l’ECCP comprennent une liste de questions que le DoJ estime que les responsables de la conformité devraient se poser concernant l’utilisation de systèmes d’IA, car ce sont exactement les questions que les procureurs poseront en cas d’enquête. Des exemples incluent:

Share the Post: