https://www.lifegate.it/ai-act-intelligenza-artificiale
- |
- Après 36 heures de négociations, le Parlement européen et le Conseil sont parvenus à un accord sur l'AI Act, le règlement sur l'intelligence artificielle.
- Le recours à la surveillance de masse, comme la reconnaissance faciale en direct et la police prédictive, est interdit, à diverses exceptions près.
- Les associations de défense des droits de l'Homme retiennent leur enthousiasme :sans le texte définitif, il n'est pas possible de vérifier le niveau de protection des droits et la limite effective à la surveillance de masse.
Après des mois de débats sur la manière de réglementer les entreprises comme OpenAI qui s'occupent de systèmes d'intelligence artificielle, leUnion européenne il a approuvé la loi IA le vendredi 8 décembre, le premier paquet de règles régionales sur l'intelligence artificielle.C'est un loi fondamentale qui, dans l’espoir des législateurs européens, pourrait devenir un modèle pour le reste du monde.
Qu'est-ce que la loi sur l'IA et en quoi est-elle différente des autres réglementations sur l'intelligence artificielle
Proposé par la Commission européenne le 21 avril 2021 dans le cadre de la stratégie numérique communautaire, leLoi sur l'intelligence artificielle est le Règlement de l'Union européenne qui vise à introduire un cadre réglementaire et juridique commun pour l'intelligence artificielle.
Le règlement lui-même n’est pas une première à l’échelle mondiale.Dans La Chine, par exemple, les règles sur l'intelligence artificielle générative sont entrés en vigueur déjà en août.Toutefois, le caractère exceptionnel de la loi AI concerne lensemble de règles, beaucoup plus larges, sur l’utilisation de l’intelligence artificielle, comprenant un grand nombre d’interdictions.
Propre le trilogue sur quelques interdits – la négociation entre le Parlement, la Commission européenne et le Conseil, dernière partie du processus législatif européen – j'ai risqué de m'échouer dans les 36 heures de négociations.La discussion a notamment porté sur les utilisations autorisées et interdites de l'intelligence artificielle par les entreprises. organismes chargés de l'application de la loi, notamment autour de la police prédictive et de la reconnaissance faciale en temps réel.Alors que d’un côté le Parlement défendait la ligne du blocus total, le Conseil, représentant les États membres, a plutôt plaidé en faveur d’une approche beaucoup plus permissive.
La question de la surveillance par les forces de l’ordre
Le sujet le plus controversé et le plus controversé, non seulement entre le Parlement et la Commission mais aussi avec la société civile, était la définition de l'utilisation licite de l'intelligence artificielle par les forces de l'ordre.
Le Conseiller, qui représente les 27 gouvernements nationaux des États membres, a tenté d'accorder la possibilité d'utiliser l'intelligence artificielle pour identifier les personnes grâce à reconnaissance faciale biométrique en temps réel.Une autre demande visait à autoriser l'utilisation de ces systèmes à des fins de police prédictive.Cela implique l’utilisation d’algorithmes pour prédire la probabilité avec laquelle un crime peut être commis, par qui et à quel endroit.
Les pays qui ont tenté de pousser dans cette direction ont étéItalie – oubliant que le Garant de la confidentialité interdit l'utilisation de la reconnaissance en temps réel en 2021 - leHongrie et le France.Surtout, ce dernier a récemment beaucoup poussé dans le sens de la sécurité, d'abord avec la loi sur "sécurité mondiale» et puis avec le loi d'avril dernier qui a autorisé le recours à l'intelligence artificielle et aux enquêtes préventives compte tenu de Jeux Olympiques de Paris.
Pas de soleil :les inquiétudes, notamment au sein de la société civile et des organisations de défense des droits numériques, se sont accrues lorsque, au cours des négociations, le Conseil a tenté d'autoriser l'utilisation de reconnaissance biométrique sur une base ethnique.
Quelles utilisations de l’IA pour la surveillance sont interdites
L'opposition menée par le Parlement a tenu le coup et lel'utilisation de l'intelligence artificielle pour la surveillance a été interdite, sauf quelques exceptions et en tout état de cause avec l'autorisation des autorités judiciaires. De ce qui est ressorti dans les heures suivantes, le des règles sont fixées sur les risques, divisé en quatre catégories : minime, limité, élevé et inacceptable.Plus les risques sont élevés, plus les responsabilités de ceux qui développent et utilisent ces systèmes spécifiques sont grandes, jusqu'à ce qu'il soit interdit pour ceux considérés comme trop dangereux.
La loi sur l'IA interdit la catégorisation biométrique des données personnelles sensibles, comme l'origine ethnique, la foi ou l'orientation sexuelle ;là collection massive de visages sur Internet et des technologies qui reconnaissent émotions (uniquement cependant au travail et à l'école).Il interdit également les systèmes capables de manipuler les émotions de personnes et celles basées sur notation sociale, c'est-à-dire la méthode de classification de la réputation des citoyens déjà adoptée en Chine.
La reconnaissance biométrique en temps réel a été interdite sauf dans trois situations : menace de terrorisme, recherche de victimes de crimes (comme par exemple les otages) et d'identifier soupçonné de « crimes graves ».Là première liste répandue comprend la traite des êtres humains, le trafic de drogue, le trafic d'armes, la pédopornographie et la maltraitance des enfants, les crimes environnementaux, les meurtres, mais aussi le terrorisme et les enlèvements, crimes en réalité déjà inclus dans les trois exceptions prévues.
LE systèmes de police prédictive, cependant, ne peut être utilisé que pour analyser informations anonymisées pour fournir des tendances sur la scène du crime, tandis que les systèmes qui, grâce à des algorithmes, indiquent un suspect sont interdits.Autrement dit, un individu ne pourra pas faire l'objet d'une enquête car il a été signalé par un algorithme.
Les autres règles prévues dans la loi IA
Une question importante sur laquelle le règlement intervient est la transparence dans l'utilisation des systèmes d'intelligence artificielle.Les utilisateurs doivent être capable de reconnaître le contenu faux profond, tels que des images et des vidéos, au moyen d'étiquettes clairement visibles, et ils doivent savoir s'ils interagissent avec une personne ou avec un système, comme un chatbots.En outre, entreprises les fournisseurs de services numériques auront leobligation d’identifier les contenus créés avec l’intelligence artificielle qui circulent sur leurs plateformes et doivent automatiquement être marqués comme tels.Une révolution si l’on pense au nombre de des deep fakes qui circulent, par exemple, sur les réseaux sociaux.
Un autre thème est celui de’intelligence artificielle générative, ce système qui est capable de générer du texte, des images, des vidéos, de la musique ou d'autres médias en réponse à des demandes, comme ChatGpt. La norme fait référence à systèmes d'IA à usage général, capable d'effectuer différentes tâches et formé grâce à une énorme quantité de données non catégorisées.Certains sont définis seuils pour identifier les systèmes en fonction de l’impact:plus les effets sur la population sont importants, plus les obligations à respecter sont importantes.
Entre autres questions, la question relative à protection du droit d'auteur et le transparence générale de tous les contenus numériques créé avec l’intelligence artificielle.
Les prochaines étapes de la loi IA et les critiques reçues de la société civile
Le texte du règlement a terminé son processus politique et est désormais passé entre les mains des techniciens qui ont pour mission de réviser les règles pour en vérifier la cohérence et les modifications.Après la publication du texte définitif, vers la fin janvier prochain, la Commission se dotera d'un bureau d'intelligence artificielle. Chaque État devra désigner une autorité locale qui veille à l'application du règlement, en collaboration avec le Garant de la protection des données.
Il est important de souligner que A ce jour il n'existe toujours pas de document définitif consultable.Tout ce que nous savons a été communiqué lors de la conférence de presse et divulgué par des sources bruxelloises.
Société civile et réseaux d'associations européennes qui s'occupent des droits numériques, notamment EDRi, un réseau d'ONG et d'universitaires s'occupant des droits numériques, sont très prudent pour célébrer l'accord conclu.Les personnes suivantes sont du même avis Associations italiennes, y compris Le bon lobby, Centre Hermès Et Réseau de confidentialité, qui soulignent le inquiétude concernant les multiples exceptions à l'interdiction de l'usage de la reconnaissance faciale dans l'espace public, mais surtout à la manque de transparence lors des négociations. Sur une note positive, comme il le souligne Diletta Huyskes de Privacy Network, il semblerait que l'inclusion dans la règle de analyse d'impact sur les droits fondamentaux pour les intelligences artificielles à haut risque, mais cela aussi ne pourra être vérifié qu'avec la publication du texte définitif.
Comme pour les autres réglementations européennes, les détails les plus problématiques ils n'apparaîtront qu'une fois le texte sera rendu public.Au cours des négociations, les gouvernements ont dû admettre que les systèmes d'intelligence artificielle de plus en plus utilisé pour la surveillance de masse, le profilage racial et d’autres fins nuisibles et invasives.L'accord contient des limites, mais ce n'est qu'avec le texte définitif qu'il sera possible de vérifier son impact, notamment en matière de surveillance intérieure et de frontières.
Difficile de s'enthousiasmer devant une loi qui, pour la première fois dans l'Union européenne, prévoit de légaliser la reconnaissance faciale en temps réel.Même si le Parlement s'est battu avec acharnement pour limiter les dégâts, le paquet global sur la surveillance biométrique et le profilage ne va pas assez loin.Notre lutte contre la surveillance biométrique de masse va se poursuivre