L’acte d’intelligence artificielle de l’UE est passé – maintenant, c’est l’attente

Les trois branches de l’Union européenne ont convenu à titre provisoire de son acte sur l’IA, ouvrant la voie à l’interdiction par le bloc économique de certains usages de la technologie et à la demande de transparence de la part des fournisseurs. Mais en dépit des avertissements de certains dirigeants mondiaux, les changements qu’elle exigera des entreprises d’IA demeurent incertains et potentiellement lointains.

Proposé pour la première fois en 2021, l’acte sur l’IA n’a toujours pas été entièrement approuvé. Les compromis discutés à la dernière minute ont adouci certains de ses plus sévères menaces réglementaires. Et l’application ne devrait pas commencer avant plusieurs années. «À court terme, le compromis sur l’acte sur l’IA de l’UE ne devrait pas avoir beaucoup d’effet direct sur les concepteurs d’IA établis aux États-Unis, car, en vertu de ses termes, il ne devrait probablement pas entrer en vigueur avant 2025», déclare Paul Barrett, directeur adjoint du NYU Stern Center for Business and Human Rights.

Ainsi, Barrett estime que les principaux acteurs de l’IA, tels qu’OpenAI, Microsoft, Google et Meta, continueront probablement de lutter pour la dominance, notamment en naviguant dans l’incertitude réglementaire aux États-Unis.

L’acte sur l’IA a vu le jour avant l’explosion des outils d’IA généralistes (GPAI) tels que le grand modèle linguistique GPT-4 d’OpenAI, et sa réglementation est devenue un point de blocage remarquablement compliqué lors des discussions de dernière minute. L’acte divise ses règles en fonction du niveau de risque qu’un système d’IA a sur la société, ou, comme l’a déclaré l’UE dans une déclaration, «plus le risque est élevé, plus les règles sont strictes».

Mais certains États membres se sont inquiétés du fait que cette rigidité pourrait faire de l’UE un marché peu attrayant pour l’IA. La France, l’Allemagne et l’Italie ont tous fait campagne pour assouplir les restrictions sur les GPAI lors des négociations. Ils ont obtenu des compromis, notamment en limitant ce qui peut être considéré comme des «systèmes à haut risque», qui seront ensuite soumis à certaines des règles les plus strictes. Au lieu de classer tous les GPAI comme des systèmes à haut risque, il y aura un système à deux niveaux et des exceptions en matière de poursuites pénales pour les usages interdits de l’IA, comme l’identification biométrique à distance.

Cela n’a toujours pas satisfait tous les critiques. Le président français Emmanuel Macron a attaqué les règles, affirmant que l’acte sur l’IA crée un environnement réglementaire difficile qui entrave l’innovation. Barrett a déclaré que certaines nouvelles entreprises européennes d’IA pourraient avoir du mal à lever des fonds avec les règles actuelles, ce qui donne un avantage aux entreprises américaines. Les entreprises en dehors de l’Europe pourraient même choisir d’éviter de s’implanter dans la région ou de bloquer l’accès aux plateformes afin de ne pas être sanctionnées pour violation des règles, un risque potentiel que l’Europe a également affronté dans le secteur des technologies non-IA, suite à des réglementations telles que la loi sur les marchés numériques et la loi sur les services numériques.

Mais les règles évitent également certains des enjeux les plus controversés entourant les IA génératives

Les modèles d’IA formés à partir de données publiques – mais sensibles et potentiellement protégées par des droits d’auteur – ont suscité de vives controverses chez les organisations, par exemple. Les règles provisoires, cependant, ne créent pas de nouvelles lois sur la collecte de données. Alors que l’UE a été pionnière en matière de législation sur la protection des données à travers la GDPR, ses règles sur l’IA n’interdisent pas aux entreprises de collecter des informations, au-delà du fait qu’elles doivent respecter les lignes directrices de la GDPR.

«En vertu des règles, les entreprises devront peut-être fournir un résumé de transparence ou des étiquettes nutritionnelles de données», déclare Susan Ariel Aaronson, directrice du Digital Trade and Data Governance Hub et professeure de recherche d’affaires internationales à l’Université George Washington. «Mais cela ne changera probablement pas le comportement des entreprises en ce qui concerne les données.»

Aaronson souligne que l’acte sur l’IA n’a toujours pas clarifié la manière dont les entreprises doivent traiter les contenus protégés par des droits d’auteur qui font partie des données d’entraînement des modèles

Share the Post: