欧洲首部人工智能法规《人工智能法案》提供了什么

Lifegate

https://www.lifegate.it/ai-act-intelligenza-artificiale

议会和理事会就《人工智能法案》达成了协议。它禁止生物识别并引入了各种限制,但根据非政府组织的说法,这还不够。
  • 经过36小时的谈判,欧洲议会和理事会就人工智能法案(AI Act)达成了协议,该法案是对人工智能的监管。
  • 禁止使用实时面部识别和预测性警务等大规模监控,但有多种例外情况。
  • 人权协会正在抑制他们的热情:如果没有明确的案文,就不可能核实权利保护的程度和对大规模监视的有效限制。

经过数月关于如何监管​​ OpenAI 等处理人工智能系统的公司的争论后,欧洲联盟 他批准了 12 月 8 日星期五《人工智能法案》, ,第一套人工智能区域规则。这是一个 基本法 欧洲立法者希望这可以成为世界其他地区的典范。

什么是《人工智能法案》以及它与其他人工智能法规有何不同

作为社区数字战略的一部分,欧盟委员会于 2021 年 4 月 21 日提出人工智能法案欧盟法规 旨在为人工智能引入一个共同的监管和法律框架。

该法规本身并不是全球首创。在 以中国为例,规则 关于生成人工智能 已生效 已经八月了。然而,《人工智能法案》的特殊性令人担忧一套更广泛的规则, ,关于人工智能的使用,包括大量的禁令。

自己的 关于一些禁令的三部曲 – 议会、欧盟委员会和理事会之间的谈判,欧洲立法过程的最后部分 – 冒着搁浅的危险 在36小时的谈判中. 。讨论的重点特别是公司允许和禁止使用人工智能 执法机构, ,特别是在预测警务和实时面部识别方面。一方面,议会捍卫了全面封锁线,而代表成员国的理事会却推动采取更加宽松的做法。

执法机构的监视问题

不仅在议会和委员会之间,而且在民间社会之间,最具争议性和分歧性的话题是 执法机构合法使用人工智能的定义

建议, 代表成员国27个国家政府,试图通过以下方式赋予使用人工智能识别人员的可能性: 实时生物特征面部识别. 。另一个请求是允许将这些系统用于以下目的: 预测性警务. 。这涉及使用算法来预测犯罪的可能性、犯罪者和地点。

cina social scoring intelligenza artificiale
中国有一个社会信用体系来对公民的声誉进行排名。在欧盟,这是不允许的 © AerialPerspective Works/iStockphoto

尝试朝这个方向努力的国家有意大利忘记了 隐私保证人 2021年禁止使用实时识别 - 这匈牙利法国. 。尤其是后者最近在安全方向上做出了很大的努力,首先是“全球安全”然后与 去年四月的法律 鉴于以下情况,授权使用人工智能和预防性调查 巴黎奥运会.

不晒太阳:当理事会在谈判期间试图允许使用 基于种族的生物特征识别.

禁止使用人工智能进行哪些监视

议会发起的反对行动得到了维持,使用人工智能进行监视已被禁止, ,但少数例外情况以及在任何情况下均经司法当局授权。 从出现的情况来看 在接下来的几个小时内, 规则是针对风险制定的, ,分为四类: 最小的、有限的、高的和不可接受的. 。风险越高,开发和使用这些特定系统的人的责任就越大, 直到被禁止 对于那些被认为太危险的人。

人工智能法案 禁止 生物识别分类 敏感个人数据, ,例如种族、信仰或性取向;那里 来自互联网的海量面孔采集 以及认识到的技术 情绪 (但是,仅在工作和学校时)。它还禁止系统能够 操纵情绪 的人和那些基于 社会评分, ,即我国已经采用的公民声誉分级方法。

除以下三种情况外,实时生物识别已被禁止: 恐怖主义威胁、寻找犯罪受害者 (例如人质)并识别 涉嫌“严重犯罪”. 。那里 第一个广泛传播的清单 包括人口贩运、毒品贩运、武器贩运、儿童色情制品和虐待儿童、环境犯罪、谋杀,还包括恐怖主义和绑架,现实中的犯罪已经包含在所规定的三种例外情况中。

预测警务系统, 但只能用于分析 匿名信息 提供犯罪现场的趋势,而通过算法表明嫌疑人的系统是被禁止的。换句话说, 个人将无法接受调查,因为他们已被算法报告.

人工智能法规定的其他规则

监管干预的一个重要问题是 透明度 在人工智能系统的使用中。用户必须 能够识别内容 深假, ,例如图像和视频,通过清晰可见的标签,并且它们必须 知道他们是否正在互动 与人或与系统, ,比如一个 聊天机器人. 。此外, 公司 数字服务提供商将拥有识别人工智能创建的内容的义务 在其平台上流通且必须自动标记为此类。如果我们考虑一下数量,那就是一场革命 例如在社交媒体上传播的深度造假.

另一个主题是生成人工智能,那个系统 它能够根据请求生成文本、图像、视频、音乐或其他媒体, 作为 聊天Gpt. 该标准是指 通用人工智能系统, ,能够执行不同的任务,并通过大量未分类的数据进行训练。有的已设定 根据影响识别系统的阈值: :对民众的影响越大,受到尊重的义务就越大。

除其他问题外,涉及以下问题: 版权保护所有数字内容的总体透明度 用人工智能创建。

《人工智能法案》的下一步行动以及民间社会的批评

该法规文本已完成政治程序,现已通过 交到了技术人员手中 他们的任务是审查规则以验证其一致性和修订情况。在最终文本发布后,大约在明年一月底,委员会将为自己配备一个 人工智能办公室. 每个州都必须提名 地方当局 谁监督该条例的实施,并与 数据保护保证人。

需要强调的是 迄今为止,仍然没有明确的文件可以查看. 。我们所知道的一切都是在新闻发布会上传达的,并由布鲁塞尔消息来源泄露。

民间社会和欧洲协会网络 处理数字版权的人包括 EDRi, 是一个由处理数字权利的非政府组织和学者组成的网络, 非常谨慎 庆祝协议达成。以下人士持相同观点 意大利协会, , 包括 良好的大堂, 爱马仕中心隐私网络, ,这强调了 对多重异常的担忧 禁止在公共场所使用面部识别,但最重要的是 谈判期间缺乏透明度. 积极的一面, ,正如他指出的 迪莱塔·赫伊斯克斯 隐私网络,这似乎包含在规则中 对基本权利的影响评估 对于高风险人工智能,但这也只能通过发布最终文本来验证。

与其他欧洲法规一样, 最有问题的细节 它们只会出现一次 文本将被公开. 。在谈判过程中,各国政府不得不承认人工智能系统 越来越多地用于大规模监视, 、种族定性和其他有害和侵入性目的。该协议包含限制,但只有最终文本才能验证其影响,特别是在内部监视和边界方面。

欧盟首次采取措施将实时面部识别合法化的法律很难让人感到兴奋。尽管议会努力限制损失,但生物识别监视和分析的整体方案还远远不够。我们反对大规模生物识别监控的斗争将继续

Ella Jakubowska,EDRi 高级政策顾问

已获得许可: CC-BY-SA
CAPTCHA

发现网站:siteUrl

^