核心提示
1.近日网络流传的欧盟通过《人工智能法》的新闻不实,实际上 6 月 14 日欧盟议会通过的仅仅是《人工智能法案》的草案,《人工智能法案》最早也要在 2025 年底才可生效。
2.目前欧盟《人工智能法案》草案确立了域外管辖规则,即只要向欧盟提供相关 AI 服务,即使服务器置于其他国家,依然需要受到该法案的监管。
3.目前欧盟《人工智能法案》规定了“不可接受的风险”“高风险”“最小风险”等风险等级,AI 从业者如有达到“不可接受的风险”等级的行为,将受到高于 3 千万欧元,或全球年收入的 6%(以较高者为准)的处罚。这大大超过了 GDPR(欧盟另一部具有国际影响力)的罚款范围。
4.近年来全球范围内的 AI 规制立法已经迎来大潮,且均存在确立域外管辖规则与提高处罚力度两大特点,飒姐团队提醒有“出海”计划的 AI 科技企业务必注意相关风险,做好合规工作。
一、AI Act 业已通过?假新闻!
最近,一些媒体以‘欧盟《人工智能法》通过,XXXX’的标题博关注。
考虑到人工智能可以提供大量的经济和社会效益,同时也可能为个人或社会带来新的风险或负面影响,欧盟立法者在 2021 年 4 月提出了 AI Act 的草案雏形。
欧洲议会(European Parliament)于今年 6 月 14 日通过了欧盟 AI Act 的草案,以限制使用人工智能带来的高风险。欧洲议会的投票是正式立法前的最后步骤之一,接下来将进入欧洲议会、欧盟成员国(EU member states)和欧盟委员会(European Commission)的三方谈判阶段,以调和 AI Act 的不同版本。
尽管如此,鉴于一些技术的监管手段仍存争议,例如生物识别、基础模型,AI Act 何时生效仍不清楚。如果今年三方能够达成协议通过该法案,AI Act 将有两年的实施期(在此期间将建立其治理结构,例如欧洲人工智能办公室),最早在 2025 年底适用于所有人工智能供应商和部署者。
二、AI Act 的适用范围?注意域外管辖权!
其草案明确以下主体将适用于 AI Act:
(a) 在欧盟内将 AI 系统投放市场或投入使用的供应商,无论这些供应商是在欧盟内还是在第三国设立;
(b) 位于欧盟内的 AI 系统的用户;
(c) 位于第三国的 AI 系统的提供者和使用者,而该系统的产出在欧盟内使用。
简而言之,AI Act 对域外供应商具有管辖效力,一旦该供应商被认定为在欧盟提供服务,即使服务器置于其他国家,仍然在 AI Act 的监管范围之内。
三、严禁 AI 用于“公共场合面部识别”!
来看 AI Act 划分各级风险
制定《人工智能法》有两个主要原因:
(1)使欧盟各成员国对人工智能技术的监管规则同步化,
(2)对人工智能的实际内容作出更明确的定义。
该草案对各种 AI 系统应用进行了风险等级分类:
1
不可接受的风险 (unacceptable risk)
当人工智能系统被认定违反了欧盟的价值观时,其使用被认为是不可接受的 (unacceptable)。例如,如果某人工智能系统涉及违反了人身的基本权利时,如人的尊严权,私人生活和个人数据保护,不歧视和男女平等等,该系统应被命令禁止。
其附件中进一步列出了明确禁止的人工智能活动,主要分为三类:
1.禁止有很大可能通过潜意识技术超越个人意识来操纵个人或利用个人意识的做法。诸如利用儿童或残疾人等特定弱势群体的脆弱性,以实质性地扭曲他们的行为,从而可能导致他们或其他人的心理或身体伤害。另外,现有的数据保护、消费者保护和数字服务立法可以涵盖其他可能由人工智能系统促成的影响成年人的操纵或剥削行为,以保证自然人被适当告知、自由选择不接受可能影响其行为的特征分析或其他做法。
2. 禁止公共机构为一般目的,根据自然人的社会行为或已知或预测的个人或个性特征,进行基于人工智能的社会信用评估,并导致:
(i) 在与最初产生或收集数据的背景无关的社会环境中,对某些自然人或其整个群体给予不利或负面的待遇;或 / 及
(ii) 对某些自然人或其整个群体的损害或不利待遇是不合理的,或与他们的社会行为或其严重性不相称的。
3.禁止在公共场所为执法目的使用实时远程生物识别系统,除非有绝对必要:
(i) 有针对性地寻找特定的潜在犯罪受害者,包括失踪儿童;
(ii) 防止对自然人的生命或人身安全的具体、重大和紧迫的威胁或恐怖袭击;
(iii) 侦查、定位、识别或起诉在有关成员国可判处至少三年监禁或拘留令的刑事犯罪的犯罪人或嫌疑人。
其中:
····
“远程生物识别系统”是指一种人工智能系统,其目的是通过将一个人的生物识别数据与参考数据库中的生物识别数据进行比较,在人工智能系统的用户事先不知道该人是否会出现并能被识别的情况下,在远处识别自然人。
“实时远程生物识别系统”是指远程生物识别系统,其中生物识别数据的采集、比较和识别都没有明显的延迟。
2
高风险 (high-risk)
根据基于风险的方法 (risk-based approach),这些高风险的人工智能系统被允许进入欧洲市场,但必须符合某些强制性要求和事先的合格评估。
高风险的分类不仅取决于 AI 系统执行的功能,还取决于该系统使用的具体目的和方式。
欧盟已经划定了高风险 AI 系统的两个主要类别:
1) 拟作为产品安全组成部分的 AI 系统,需接受第三方事前的合格评估。衡量标准包括 AI 系统的预期目的、被使用的程度、对健康、安全及基本权利的潜在损害与可逆转性、赔偿措施等等。
2) 其他独立的对基本权利有影响的人工智能系统(明确列出),包括:
- 用于生物识别的系统;
- 关键基础设施的管理;
- 教育和职业培训;
- 就业、工人管理和获得自营职业的工具;
- 获得基本的公共和私人服务(如生命和健康保险);
- 执法;
- 移民、庇护和边境管制管理工具;
- 司法和民主进程。
3
最小风险 (low or minimal risk)
包括垃圾邮件过滤器和库存管理系统,将不会面临任何额外的规则。
四、生成式 AI 与通用 AI 将在监管之列?
1. 通用 AI
通用 AI(全称 General Purpose AI),是具有广泛的可能用途的 AI 系统,能够执行普遍适用的功能,如图像 / 语音识别、音频 / 视频生成、模式检测、问题回答、翻译等,包括开发者预期和非预期的用途。它们可以应用于各个领域,并且不需要进行大规模的调整。由于开发者可利用的计算资源和使用这些资源的创新方法越来越多,通用 AI 在商业上变得越来越有用。一些比较知名的通用 AI 系统包括 AlphaStar, Chinchilla, Codex, DALL•E 2, GPT-3, MuZero 和悟道 2.0.
AI Act 对通用 AI 的提供者也提出了监管要求:
o 基本合规要求;
o 评估其系统的可合理预见的滥用情况;
o 向用户和供应链中的其他相关利益方提供有关系统安全的说明和信息;
o 定期评估新风险,包括在调查新的使用案例时发现的风险;
o 在欧盟数据库中注册其系统。
2. 生成式 AI
生成式 AI(全称 Generative AI),被 AI Act 定义为专门用于以不同程度的自主性生成复杂文本、图像、音频或视频等内容的人工智能系统,是基础模型 (foundation model) 的一个子种类。
其中,AI Act 要求这类系统的提供者:
- 在内容由人工智能生成时通知用户
- 部署适当的内容生成训练和设计保障
- 确保生成的合成内容是合法的,并公开披露用于训练其模型的版权数据的“足够详细的摘要”
五、AI Act 的惩罚力度
议会的提案增加了对违反 AI Act 的潜在惩罚。
供应商如有禁止列表中的行为(即上文讨论的,具有‘不可接受的风险’),将受到高于 3 千万欧元,或全球年收入的 6%(以较高者为准)的处罚。这大大超过了 GDPR(欧盟另一部具有国际影响力)的罚款范围,即最多为公司全球收入的 4%。对于谷歌、微软等大型科技公司而言,考虑其以往的运营方式将多少违反新提出的 AI Act,其罚款可能高达数十亿欧元。
另外,对违反 AI Act 的基础模型供应商的处罚可能达到 1000 万欧元或 2% 的年收入(以较高者为准),以此规范生成式 AI 的系统应用。
写在最后
实际上以欧盟的 AI Act 草案为代表,世界主流国家和地区近年来均开启针对人工智能的立法监管,这一 AI“立法风潮”与本世纪初的互联网规制立法具有极高的相似程度,一方面,绝大多数国家均确立了域外管辖原则,以应对互联网“跨地域协作”的特征,以欧盟本次的 AI Act 草案为例,即使公司注册地、服务器所在地位于中国,但倘若面向欧盟用户提供服务,那么就要受到生效后的 AI Act 的监管。反之,即使公司注册地、服务器均不在中国,但若面向中国用户提供相关的 AI 服务,就要受到我国的人工智能相关监管规则的规制。另一方面,绝大多数国家均确立了严厉的处罚措施,“利润越大,风险也就越大”的法则是存在的,AIGC 自今年年初开始井喷式发展,其存在巨大的利润增长空间,也正因如此,各国对于 AIGC 的处罚力度亦空前绝后,飒姐团队在此提醒我国广大 AIGC 从业者,务必注意世界范围内 AI 监管措施的上述两大特点,注意相关风险,做好合规工作。
所有评论