https://www.lifegate.it/ai-act-intelligenza-artificiale
- |
- Tras 36 horas de negociaciones, el Parlamento Europeo y el Consejo llegaron a un acuerdo sobre la AI Act, el reglamento sobre inteligencia artificial.
- El uso de vigilancia masiva, como el reconocimiento facial en vivo y la vigilancia policial predictiva, está prohibido, con varias excepciones.
- Las asociaciones de derechos humanos frenan su entusiasmo:sin el texto definitivo no es posible verificar el nivel de protección de los derechos y el límite efectivo a la vigilancia masiva.
Después de meses de debates sobre cómo regular empresas como OpenAI que se ocupan de sistemas de inteligencia artificial, launión Europea él aprobó la Ley de IA el viernes 8 de diciembre, el primer paquete de normas regionales sobre inteligencia artificial.es uno ley fundamental que, según la esperanza de los legisladores europeos, podría convertirse en un modelo para el resto del mundo.
Qué es la AI Act y en qué se diferencia de otras normativas sobre inteligencia artificial
Propuesto por la Comisión Europea el 21 de abril de 2021 como parte de la estrategia digital comunitaria, elLey de inteligencia artificial es el Reglamento de la Unión Europea cuyo objetivo es introducir un marco regulatorio y legal común para la inteligencia artificial.
La regulación en sí no es una novedad a nivel mundial.En China, por ejemplo, las reglas. sobre inteligencia artificial generativa han entrado en vigor ya en agosto.Sin embargo, el carácter excepcional de la Ley de IA se refiere a lconjunto de reglas, mucho más amplio, sobre el uso de inteligencia artificial, incluidas una gran cantidad de prohibiciones.
Propio el diálogo tripartito sobre algunas prohibiciones – la negociación entre el Parlamento, la Comisión Europea y el Consejo, la parte final del proceso legislativo europeo – corría el riesgo de encallar en las 36 horas de negociaciones.En particular, el debate se centró en los usos permitidos y prohibidos de la inteligencia artificial por parte de las empresas. agencias de aplicación de la ley, particularmente en torno a la vigilancia policial predictiva y el reconocimiento facial en tiempo real.Mientras que, por un lado, el Parlamento defendió la línea del bloqueo total, el Consejo, que representa a los Estados miembros, presionó por un enfoque mucho más permisivo.
La cuestión de la vigilancia por parte de los organismos encargados de hacer cumplir la ley
El tema más controvertido y divisivo, no sólo entre el Parlamento y la Comisión sino también con la sociedad civil, fue la definición del uso legal de la inteligencia artificial por parte de los organismos encargados de hacer cumplir la ley.
El Aconsejar, que representa a los 27 gobiernos nacionales de los estados miembros, intentó otorgar la posibilidad de utilizar inteligencia artificial para identificar personas a través de reconocimiento facial biométrico en tiempo real.Otra solicitud fue permitir el uso de estos sistemas con fines de vigilancia predictiva.Se trata del uso de algoritmos para predecir la probabilidad con la que se puede cometer un delito, por quién y en qué lugar.
Los países que han intentado avanzar en esta dirección han sidoItalia – olvidando que el Garante de privacidad prohibió el uso del reconocimiento en tiempo real en 2021 - elHungría y el Francia.Especialmente este último ha impulsado mucho últimamente en el ámbito de la seguridad, primero con la ley sobre "seguridad global” y luego con el ley el pasado mes de abril que autorizó el uso de inteligencia artificial e investigaciones preventivas ante Juegos Olímpicos de París.
No sol:Las preocupaciones, especialmente en la sociedad civil y las organizaciones de derechos digitales, aumentaron cuando, durante las negociaciones, el Consejo intentó permitir el uso de reconocimiento biométrico sobre una base étnica.
Qué usos de la IA para la vigilancia están prohibidos
La oposición llevada a cabo por el Parlamento se ha mantenido y laProhibido el uso de inteligencia artificial para vigilancia, salvo contadas excepciones y en todo caso con autorización de las autoridades judiciales. De lo que surgió en las siguientes horas, el Se establecen reglas sobre los riesgos., dividido en cuatro categorías: mínimo, limitado, alto e inaceptable.Cuanto mayores sean los riesgos, mayores serán las responsabilidades de quienes desarrollan y utilizan esos sistemas específicos. hasta que fue prohibido para aquellos considerados demasiado peligrosos.
La Ley de IA prohíbe la categorización biométrica de datos personales sensibles, como etnia, fe u orientación sexual;allá colección masiva de caras de internet y tecnologías que reconocen la emociones (pero sólo en el trabajo y en la escuela).También prohíbe los sistemas capaces de manipular las emociones de personas y aquellos basados en puntuación social, es decir, el método de clasificación de la reputación de los ciudadanos ya adoptado en China.
Se ha prohibido el reconocimiento biométrico en tiempo real excepto en tres situaciones: amenaza de terrorismo, búsqueda de víctimas del crimen (como, por ejemplo, rehenes) e identificar sospechoso de algunos “delitos graves”.Allá primera lista generalizada incluye trata de personas, tráfico de drogas, tráfico de armas, pornografía y abuso infantil, delitos medioambientales, asesinatos, pero también terrorismo y secuestro, delitos en realidad ya incluidos en las tres excepciones previstas.
EL sistemas policiales predictivos, sin embargo, sólo se puede utilizar para analizar información anónima para proporcionar tendencias en la escena del crimen, mientras que están prohibidos los sistemas que, a través de algoritmos, indican un sospechoso.En otras palabras, un individuo no podrá ser investigado porque ha sido informado por un algoritmo.
Las demás normas previstas en la Ley de IA
Una cuestión importante en la que interviene el reglamento es la transparencia en el uso de sistemas de inteligencia artificial.Los usuarios deben ser capaz de reconocer el contenido profundamente falso, como imágenes y vídeos, mediante etiquetas claramente visibles, y deberán saber si están interactuando con una persona o con un sistema, como un chatbots.Además, empresas Los proveedores de servicios digitales tendrán laObligación de identificar contenidos creados con inteligencia artificial. que circulan en sus plataformas y deberán marcarse automáticamente como tales.Una revolución si pensamos en el número de deep fakes que circulan, por ejemplo, en las redes sociales.
Otro tema es el de’inteligencia artificial generativa, ese sistema que sea capaz de generar texto, imágenes, vídeos, música u otros medios en respuesta a solicitudes, como ChatGpt. La norma se refiere a sistemas de IA de propósito general, capaz de realizar diferentes tareas y entrenado a través de una enorme cantidad de datos sin categorizar.algunos estan establecidos Umbrales para identificar sistemas basados en el impacto.:cuanto mayores sean los efectos sobre la población, mayores serán las obligaciones que deben respetarse.
Entre otras cuestiones, la cuestión relativa a protección de derechos de autor y el Transparencia general de todos los contenidos digitales. creado con inteligencia artificial.
Los próximos pasos de la Ley de IA y las críticas recibidas de la sociedad civil
El texto del reglamento ha finalizado su proceso político y ahora está pasó a manos de los técnicos quienes tienen la tarea de revisar las normas para verificar su coherencia y modificaciones.Tras la publicación del texto definitivo, aproximadamente a finales del próximo enero, la Comisión se dotará de un oficina de inteligencia artificial. Cada estado tendrá que nominar una autoridad local quien supervisa la aplicación del reglamento, trabajando en conjunto con el Garante de protección de datos.
Es importante subrayar que A la fecha aún no existe ningún documento definitivo que pueda visualizarse.Todo lo que sabemos fue comunicado en la rueda de prensa y filtrado por fuentes de Bruselas.
Sociedad civil y redes de asociaciones europeas que se ocupan de los derechos digitales, incluidos EDRi, una red de ONG y académicos que se ocupan de los derechos digitales, están muy cauteloso al celebrar el acuerdo alcanzado.Los siguientes son de la misma opinión. asociaciones italianas, incluido El buen lobby, Centro Hermes Y Red de privacidad, que subrayan la preocupación por las múltiples excepciones a la prohibición del uso del reconocimiento facial en espacios públicos, pero sobre todo a la falta de transparencia durante las negociaciones. En una nota positiva, como señala Diletta Huyskes de Privacy Network, parecería que la inclusión en la regla de evaluación de impacto sobre los derechos fundamentales para inteligencias artificiales de alto riesgo, pero esto también sólo podrá comprobarse con la publicación del texto definitivo.
Al igual que con otras regulaciones europeas, los detalles más problemáticos solo emergerán una vez el texto se hará público.Durante las negociaciones, los gobiernos tuvieron que admitir que los sistemas de inteligencia artificial son cada vez más utilizado para la vigilancia masiva, elaboración de perfiles raciales y otros fines dañinos e invasivos.El acuerdo contiene límites, pero sólo con el texto definitivo será posible comprobar su impacto, especialmente en materia de vigilancia interior y fronteras.
Es difícil entusiasmarse con una ley que, por primera vez en la Unión Europea, ha tomado medidas para legalizar el reconocimiento facial en tiempo real.Aunque el Parlamento ha luchado duramente para limitar los daños, el paquete general sobre vigilancia y elaboración de perfiles biométricos no va lo suficientemente lejos.Nuestra lucha contra la vigilancia biométrica masiva continuará