FEU VERT POUR UN CADRE REGLEMENTAIRE EUROPEEN SUR L’INTELLIGENCE ARTIFICIELLE : UNE PREMIÈRE MONDIALE POUR SE SITUER À L'AVANT-GARDE SUR L’IA ?
Une réglementation «historique, une première mondiale», c’est comme cela que le commissaire européen au marché intérieur Thierry Breton a salué l’approbation, à l'unanimité, des 27 États membres de l'Union européenne sur le projet de règlement sur l'intelligence artificielle dit AI Act. En effet, dans le cadre de sa stratégie numérique, l'UE souhaite réglementer l'intelligence artificielle (IA) pour garantir de meilleures conditions de développement et d'utilisation de cette technologie innovante. L'IA peut apporter de nombreux avantages, tels que de meilleurs soins de santé, des transports plus sûrs et plus propres, une fabrication plus efficace, ainsi qu'une énergie moins chère et plus durable. Néanmoins, la Commission européenne, dans son projet de règlement présenté en 2021, souhaite que les systèmes d'IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs. C’est dans ce contexte, où les interrogations sur l’avenir de l’IA restent nombreuses, que l’UE adopte une position avant-gardiste sur le sujet.
Réguler pour contrer les risques et prévenir des potentiels dangers de l’IA
«La loi sur l'IA a déchaîné les passions, à juste titre ! Aujourd'hui, les États ont approuvé l'accord politique de décembre, reconnaissant l'équilibre parfait trouvé par les négociateurs entre innovation et sécurité», a déclaré Thierry Breton, le vendredi 02 février. En effet, ce sont de nombreux risques qui sont pris en compte, surtout suite à la volonté unanime du Parlement européen à établir des règles strictes sur les modèles d’IA puissant, malgré les demandes des grandes économies européennes (France, Allemagne et Italie) de limiter les règles à des codes de conduite. Alors, le compromis s’est fondé sur une approche par niveaux. Il a été établi des règles de transparence horizontales pour tous les modèles d’IA et des obligations supplémentaires pour les modèles plus imposants où réside potentiellement un risque systémique.
Dans ce texte réside un ensemble de risques dits « inacceptables ». Les systèmes d'IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Cela comprend la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants. L’établissement d’un score social pour classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles.
A cela s’ajoutent les risques dits « élevés » chez les systèmes d'IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque. Ils sont divisés en deux catégories, les systèmes d'IA sont utilisés dans les produits relevant de la législation de l'UE sur la sécurité des produits ( les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs) et les systèmes d'IA relevant de domaines spécifiques qui sont considérés au cas par cas.
Une volonté de stratégie avant-gardiste de la part de l’UE, débattue avec les acteurs du secteur
Un des enjeux majeurs du texte était le seuil de puissance des IA, mis en avant par la France notamment, qui sera actualisé « régulièrement » en fonction des progrès technologiques, pour rester en cohérence avec ce qui se fait aux États-Unis ou en Chine. De même, le projet de règlement prend en compte le droit d'auteur, surtout pour imposer une obligation de transparence sur les données utilisées pour entraîner les modèles générés par l’IA.
Le choix de ne pas désavantager les entreprises européennes prometteuses a été poussé par Paris pour que l’obligation de publicité des modèles puisse être équilibrée par la notion de « secret des affaires », afin de protéger certaines recettes de fabrication. De même, une partie du monde de la tech s’est montré plutôt circonspect: "Nombre de ces nouvelles règles restent floues et pourraient ralentir le développement et le déploiement d'applications innovantes", a déploré vendredi Boniface de Champris, un responsable Europe du CCIA, un représentant du secteur de l’IA. La législation "crée des obligations conséquentes, malgré quelques aménagements pour les start-ups et PME", abonde Marianne Tordeux Bitker, de l'association professionnelle France Digitale, redoutant "des barrières réglementaires supplémentaires qui profiteront à la concurrence américaine et chinoise".
Dorénavant, la dernière étape à franchir pour le texte est le vote du Parlement européen attendu au printemps pour entériner ce projet de règlement.