AI Act : le feu vert unanime des Etats membres

Publié le 5 Fév, 2024

Vendredi, les ambassadeurs des 27 Etats membres de l’Union européenne [1] ont approuvé à l’unanimité l’AI Act, « un cadre règlementaire exhaustif sur l’intelligence artificielle » (IA), présenté comme « le premier de ce genre au monde ».

L’année dernière, la Chine a introduit des règles sur l’IA générative et le président américain Joe Biden a publié un décret réglementant la technologie. Toutefois, « la législation de l’UE est la plus complète, avec des règles contraignantes sur un large éventail de questions allant des risques aux droits d’auteur ».

L’AI Act ventile les systèmes en quatre catégories principales en fonction du « risque potentiel qu’ils représentent pour la société » (cf. Intelligence artificielle : « Nous ne sommes plus dans le temps du débat intellectuel »). Les systèmes considérés comme présentant un « risque élevé » seront soumis à « des règles strictes qui s’appliqueront avant leur entrée sur le marché de l’UE ». Une fois disponibles, ils seront placés sous la surveillance des autorités nationales, avec le soutien du bureau de l’IA au sein de la Commission européenne.

L’opposition de la France

Au mois de décembre, les législateurs étaient parvenus à un accord (cf. AI Act : l’Union européenne trouve « un accord politique »). Cependant « certains acteurs européens clés se sont opposés à certaines parties de l’accord provisoire, et ce jusqu’au dernier moment ».

« La principale force d’opposition à l’accord politique était la France, qui, avec l’Allemagne et l’Italie, demandait un cadre règlementaire plus souple pour les modèles d’IA puissants ». Ces trois Etats souhaitaient que les règles soient limitées à des « codes de conduite », soucieux de protéger les start-ups européennes du domaine telles que Mistral AI et Aleph Alpha.

En outre, « Bercy et l’Elysée ont tâché de limiter la publication du résumé des données d’entraînement de ces modèles à un « tiers de confiance », par exemple le bureau européen de l’IA créé par l’AI Act ». De son côté, l’industrie culturelle française s’inquiétait au contraire que la France « cherche à construire une minorité de blocage en vue du vote du 2 février ». En effet, « un tel rejet aurait mis en danger tout le texte, une renégociation étant impossible avant les élections européennes de juin ». Or, pour le monde de la culture, « la transparence des modèles de fondation devait absolument être maintenue pour que les ayants droit puissent vérifier si leurs contenus ont été utilisés lors de la phase entraînement – et, éventuellement, s’y opposer ou demander une rémunération en échange ».

L’échec de Paris

Finalement, les obligations renforcées [2] des modèles de fondation ont été limitées aux modèles « considérés comme présentant un risque systémique » dépassant un certain « seuil de puissance ». Un seuil que Paris aurait aimé voir relevé et qui devrait être révisé « régulièrement ». Les règles de transparence s’appliqueront en revanche à tous les modèles.

Alors que la France a tenté de retarder le vote des ambassadeurs, « la présidence belge a placé les Etats membres devant un scénario “à prendre ou à laisser ” ».

En début de semaine dernière, l’Allemagne a finalement décidé de soutenir le texte. En effet, « le ministre allemand du Numérique, le libéral Volker Wissing (FDP, Renew), s’est retrouvé seul à s’opposer aux règles sans ses partenaires de coalition et a finalement dû renoncer à ses réserves ». L’Italie quant à elle « a choisi d’éviter d’en faire un drame, car elle assure la présidence tournante du G7, où l’IA est un sujet crucial ».

En conséquence, la France a accepté de soutenir le texte « à des conditions strictes ». Elle « souhaite que la mise en œuvre de l’AI Act n’entrave pas le développement de modèles d’IA compétitifs, qu’elle équilibre la transparence et la protection des secrets commerciaux, qu’elle évite de surcharger les entreprises avec des obligations à haut risque et qu’elle réévalue le seuil et les critères utilisés pour désigner les modèles d’IA présentant des risques systémiques ».

De son côté, la Slovaquie a publié « une déclaration demandant des clarifications concernant des termes critiques, un alignement international et la possibilité pour les pays de l’UE de règlementer l’IA utilisée dans le cadre d’activités non professionnelles ». L’Autriche a elle aussi présenté une « déclaration protocolaire ». Elle y fait part de ses « préoccupations relatives à la protection des données et au droit des consommateurs »[3].

De nombreuses réserves

Les Etats membres peuvent encore influencer la manière dont l’AI Act sera mis en œuvre, « car la Commission devra publier une vingtaine de textes de droit dérivé »[4].

En France, le monde de la culture a « accusé l’exécutif français d’avoir rompu avec sa tradition de soutien à l’exception culturelle et d’avoir trop relayé le lobbying de Mistral AI et de son conseiller, Cédric O, ancien secrétaire d’Etat au numérique ».

Celui de la tech n’est pas satisfait non plus. « Nombre de ces nouvelles règles restent floues et pourraient ralentir le développement et le déploiement d’applications innovantes », regrette Boniface de Champris, responsable au CCIA [5], un lobby du secteur. Marianne Tordeux Bitker, de l’association professionnelle France Digitale, craint aussi que « les obligations conséquentes » créées par l’AI Act, « malgré quelques aménagements pour les start-ups et PME », ne profitent à la concurrence américaine et chinoise.

Enfin, des associations parmi lesquelles l’European Digital Rights dénoncent « un texte jugé liberticide en raison des exceptions accordées aux forces de l’ordre, encore élargies ces dernières semaines pour l’identification biométrique a posteriori, avec le soutien de certains Etats ». En effet, le texte interdit « les systèmes de notation citoyenne et de manipulation du comportement ou l’identification biométrique à distance des personnes dans les lieux publics », mais il prévoit des exceptions, « pour des cas liés à la sécurité, dont la lutte contre le terrorisme ».

Une mise en œuvre graduelle

Désormais, la Commissions du Marché intérieur (IMCO) et celle des Libertés civiles (LIBE)[6] doivent adopter le texte le 13 février. Par la suite, un vote en séance plénière est pour le moment prévu les 10 et 11 avril. « L’adoption formelle du texte de loi sera ensuite achevée par une approbation au niveau ministériel », vraisemblablement au mois de mai.

Une fois adopté, l’AI Act entrera en vigueur « 20 jours après sa publication au Journal officiel de l’UE »[7]. « Les interdictions relatives aux pratiques prohibées commenceront à s’appliquer après six mois, tandis que les obligations relatives aux modèles d’IA entreront en vigueur après un an ». Toutes les autres règles entreront en vigueur au bout de deux ans, hormis « la classification des systèmes d’IA comme étant à haut risque ». En effet, cette classification « doit faire l’objet d’une évaluation de la conformité par un tiers en vertu d’autres règles de l’UE ». Ainsi, « l’entrée en vigueur de ces règles a été repoussée d’une année supplémentaire ».

Complément du 13/03/2024 : Le 13 mars, le Parlement européen a adopté avec 523 voix contre 46 une loi visant à règlementer les systèmes d’intelligence artificielle. Même si cette législation « n’est que le commencement », « nous avons réussi à trouver un équilibre très fin entre l’intérêt d’innover et l’intérêt de protéger », a commenté le co-rapporteur Dragos Tudorache (Renew, centristes et libéraux).

Complément du 25/04/2024 : La dernière version de la législation européenne sur l’intelligence artificielle (‘AI Act‘) a été « officiellement approuvée » par les eurodéputés le 24 avril. Le vote du texte avait déjà eu lieu en séance plénière, le 13 mars dernier, sur une version non traduite et non validée par les juristes de l’Union européenne.

 

[1] Comité des représentants permanents (Coreper)

[2] « Les systèmes jugés à “haut risque” (dans la santé, les infrastructures critiques, l’éducation ou les ressources humaines) seront soumis à des obligations, comme le maintien d’un contrôle humain, la publication d’une documentation technique ou la gestion des risques (biais, erreurs, discriminations…) ».

[3] « Cette déclaration porte sur les exceptions relatives à l’application de la loi et sur les règles concernant les technologies invasives telles que l’identification biométrique à distance ».

[4] De plus « le Bureau de l’IA, qui supervisera les modèles d’IA, devrait également être doté d’un nombre important d’experts nationaux délégués ».

[5] Computer & Communications Industry Association

[6] Commissions du Parlement européen

[7] Probablement en 2025

Sources : Euractiv, Luca Bertuzzi (02/02/2024) ; Euronews, Cynthia Kroet (02/02/2024) ; Le Figaro, Ingrid Vergara (02/02/2024) ; Le Monde, Alexandre Piquard (02/02/2024) ; Tech Xplore (02/02/2024) ; 20 min ch (13/03/2024) ; Agence Europe (24/04/2024) – Photo : iStock

Partager cet article

Synthèses de presse

NHS : « le sexe est un fait biologique »
/ Genre

NHS : « le sexe est un fait biologique »

Le 30 avril, le National Health Service a publié une mise à jour de sa « Constitution », définissant le ...
japon2
/ PMA-GPA

Japon : une banque de sperme réservée aux donneurs transmettant leur identité

Une banque de sperme réservée aux donneurs acceptant de transmettre leur identité devrait ouvrir d’ici la fin de l’année 2024 ...
Genre au Etats-Unis : entre l’administration Biden et les Etats, les bras de fer se multiplient
/ Genre

Genre au Etats-Unis : entre l’administration Biden et les Etats, les bras de fer se multiplient

L'administration a publié de nouvelles règlementations étendant la discrimination à « l'identité de genre » ...

Textes officiels

Fiches Pratiques

Bibliographie

Lettres