Économie
Monde
Planète
Politique
Société
Par : Luca Bertuzzi | EURACTIV.com | translated by Arthur Riffaud
10-01-2023 (mis à jour: 10-01-2023 )
Le nouveau compromis a été distribué lundi (9 janvier) afin d’être discuté lors d’une réunion technique mercredi (11 janvier). Il s’agit de l’une des dernières séries de propositions pour la première révision du règlement sur l’IA, qui a pour objectif de règlementer la technologie en fonction de son potentiel de nuisance. [SHUTTERSTOCK/PopTika]Langues : English
Les co-rapporteurs du Parlement européen ont fait circuler de nouveaux amendements de compromis au règlement sur l’intelligence artificielle (AI Act) proposant des modalités de réalisation des évaluations d’impact sur les droits fondamentaux ainsi que d’autres obligations pour les utilisateurs de systèmes à haut risque.
Le nouveau compromis a été distribué lundi (9 janvier) afin d’être discuté lors d’une réunion technique mercredi (11 janvier). Il s’agit de l’une des dernières séries de propositions pour la première révision du règlement sur l’IA, qui a pour objectif de règlementer la technologie en fonction de son potentiel de nuisance.
Les co-rapporteurs souhaitent inclure une obligation pour tous les utilisateurs de systèmes d’IA à haut risque — qu’il s’agisse d’organismes publics ou d’entités privées — de réaliser une évaluation d’impact sur les droits fondamentaux. Ils dressent notamment une liste de plusieurs éléments qui doivent obligatoirement figurer dans cette évaluation.
Les utilisateurs de l’IA devraient en particulier tenir compte de la destination, de la portée géographique et temporelle de l’utilisation, des catégories d’individus et des groupes affectés, des risques spécifiques pour les groupes marginalisés et de l’impact environnemental prévisible, par exemple pour ce qui est de la consommation d’énergie.
D’autres éléments comprennent la conformité à la législation européenne et nationale et aux droits fondamentaux, l’impact négatif potentiel sur les valeurs de l’UE et, pour les pouvoirs publics, toute considération sur la démocratie, l’État de droit et la répartition des fonds publics.
Les co-rapporteurs estiment que les utilisateurs devraient rédiger un plan détaillé sur la manière dont l’impact négatif direct ou indirect sur les droits fondamentaux sera limité. En l’absence d’un tel plan, ils devraient informer sans délai le fournisseur d’IA et l’autorité nationale compétente.
« Au cours de l’analyse d’impact, l’utilisateur doit notifier les autorités nationales compétentes et les parties prenantes concernées et faire intervenir les représentants des personnes ou groupes de personnes dont on peut raisonnablement prévoir qu’ils seront affectés par le système d’IA à haut risque », indique le compromis.
Parmi les représentants qui pourraient apporter leur contribution à l’analyse d’impact figurent par exemple les organismes de promotion de l’égalité, les agences de protection des consommateurs, les partenaires sociaux et les autorités chargées de la protection des données. Les utilisateurs devraient leur accorder un délai de six semaines pour fournir ces informations et, s’il s’agit d’un organisme public, ils devraient publier le résultat de l’analyse d’impact dans le cadre de leur inscription au registre de l’UE.
Un nouveau compromis partiel sur la loi sur l’IA, consulté par EURACTIV vendredi, élabore davantage le concept de « niveau supplémentaire » qui qualifierait une IA comme étant à haut risque uniquement si elle a un impact important sur la prise de décision.
Les co-rapporteurs ont procédé à quelques ajouts significatifs aux obligations des utilisateurs de systèmes d’IA considérés comme à haut risque. Ils doivent par exemple s’assurer que ceux-ci ont mis en place les mesures de résistance et de cybersécurité appropriées et que ces mesures sont régulièrement mises à jour.
En outre, « dans la mesure où l’utilisateur exerce un contrôle sur le système d’IA à haut risque », les utilisateurs devront évaluer les risques liés aux effets négatifs potentiels de l’utilisation et les mesures d’atténuation respectives.
Si les utilisateurs constatent que l’utilisation du système à haut risque conformément aux instructions comporte un risque pour la santé, la sécurité ou la protection des droits fondamentaux, ils devront en informer immédiatement le fournisseur ou le distributeur de l’IA et l’autorité nationale compétente.
Le compromis précise notamment que les utilisateurs devront assurer une surveillance humaine dans tous les cas requis par le règlement sur l’IA et veiller à ce que les personnes responsables disposent des compétences, de la formation et des ressources nécessaires à une supervision adéquate.
Les utilisateurs d’IA à haut risque devront également assurer la tenue des registres automatiques générés par le système afin de garantir la conformité avec le règlement. Ils devront en effet procéder à la vérification de tout dysfonctionnement ou incident prévisible et surveiller les systèmes tout au long de leur cycle de vie.
Avant la mise en œuvre d’un système d’IA à haut risque sur un lieu de travail, les utilisateurs devraient consulter les représentants des travailleurs ainsi qu’informer et obtenir l’accord des employés.
En outre, les utilisateurs devront notifier les personnes concernées par le système à haut risque, en ce qui concerne par exemple le type d’IA utilisé, sa finalité et le type de décision qu’il prend.
Un nouveau paragraphe a également été ajouté afin d’aborder l’IA générative, à savoir des modèles de plus en plus populaires tels que ChatGPT, capables de générer du contenu à partir de saisies humaines. Les utilisateurs de ces systèmes devront indiquer que tel texte a été généré ou modifié par l’IA, sauf dans les cas où le contenu a été soumis à une révision humaine et que son éditeur est responsable ou assume la responsabilité éditoriale.
Les fournisseurs d’IA devraient coopérer étroitement avec les utilisateurs afin de se conformer à ces obligations. De leur côté, les utilisateurs devront coopérer avec les autorités nationales pour toute action liée aux systèmes à haut risque.
Les ministres européens ont donné leur accord à une approche générale du règlement sur l’intelligence artificielle (AI Act) lors de la réunion du Conseil « Télécommunications » mardi (6 décembre).
Les distributeurs, les importateurs, les utilisateurs et tout autre tiers seraient considérés comme des fournisseurs d’un système à haut risque, avec les obligations que cela implique, en vertu de certaines conditions spécifiques largement revues par les co-rapporteurs.
C’est le cas, par exemple, s’ils modifient l’objectif prévu ou apportent toute modification substantielle qui fait d’une IA une application à haut risque.
Une autre condition est que le système à haut risque ait été mis en service sous leur nom ou leur marque, à moins qu’un arrangement contractuel ne répartisse les obligations différemment.
Lorsque ces tiers deviennent un nouveau fournisseur d’IA, le fournisseur initial doit coopérer étroitement avec lui afin de se conformer aux obligations du règlement.
Des négociations interinstitutionnelles concernant le règlement sur l’IA (AI Act) sont attendues plus tard dans l’année. Alors que le Conseil de l’UE a arrêté sa position, l’Allemagne a émis des réserves sur certains points et se rapproche davantage de la position du Parlement européen.
[Édité par Anne-Sophie Gayet]
Langues : English