欧盟发布禁止类人工智能(不可接受风险)实践指南

 
 
 
 
 
 
 

来源:清华大学智能法治研究院

 

2025年2月4日,欧盟委员会发布了根据《欧洲人工智能法》定义的禁止人工智能实践指南。这些指南概述了因对欧洲价值观和基本权利构成潜在风险而被视为不可接受的人工智能实践。

《欧洲人工智能法》已于2024年8月1日生效。《欧洲人工智能法》遵循基于风险的方法,将人工智能系统分为四类风险等级,包括不可接受风险、高风险、透明度风险和最小或无风险。其中之一即为根据《人工智能法》第五条禁止的对联盟价值观和基本权利构成不可接受风险的人工智能实践。该法旨在促进创新的同时,确保高水平的健康、安全和基本权利保护,将人工智能系统分为不同的风险类别,包括禁止类、高风险类和需履行透明度义务的类别。指南特别涉及有害操纵、社会评分和实时远程生物识别等实践。

根据《人工智能法》第九十六条第一项第b点的规定,欧盟委员会应就第五条所禁止的实践的实际执行情况制定指南。欧盟此次发布的指南旨在提高法律清晰度,并深入阐述欧盟委员会对《欧洲人工智能法》第五条所载禁止条款的解释,以确保这些条款得到一致、有效和统一的适用。

此类清晰度对于人工智能系统的提供者和部署者而言至关重要,因为上述禁止条款自2025年2月2日起即直接适用。鉴于即将适用以及将所有语言版本的指南翻译完成所需的时间,现呼吁欧盟委员会批准关于《欧洲人工智能法》所规定的禁止的人工智能实践指南的委员会通告内容。

这些指南旨在确保《欧洲人工智能法》在欧盟范围内得到一致、有效和统一的适用。虽然它们提供了委员会对禁止条款解释的宝贵见解,但不具有约束力,具有权威性的解释权保留给欧洲法院(Court of Justice of the European Union,简称CJEU)。指南提供了法律解释和实际示例,以帮助利益相关方理解并遵守《欧洲人工智能法》的要求。这一举措彰显了欧盟致力于打造一个安全且符合伦理的人工智能环境的决心。

请注意,委员会已批准指南草案,但尚未正式采纳。欧盟委员会将在所有语言版本齐备后正式采纳该指南。届时,该指南才将开始适用。

 

《欧洲人工智能法》Article 5 AI Act中的禁止性规定

  1. Article 5(1)(a) 禁止有害操纵、欺骗与利用

    • 禁止行为:部署使用潜意识技术、故意操纵性或欺骗性技术,以扭曲个人或群体行为,造成或可能导致显著伤害。

    • 条件:需同时满足“投放市场”、“投入服务”或“使用”AI系统;技术需具有扭曲行为的目的或效果;行为扭曲需显著损害决策能力;扭曲行为需造成或可能导致显著伤害。

  2. Article 5(1)(b) 禁止利用脆弱性进行有害剥削

    • 禁止行为:利用因年龄、残疾或特定社会经济状况产生的脆弱性,扭曲个人或群体行为,造成或可能导致显著伤害。

    • 条件:需同时满足上述“投放市场”、“投入服务”或“使用”条件;剥削需针对特定脆弱群体;剥削需具有扭曲行为的目的或效果;扭曲行为需显著且可能造成显著伤害。

  3. Article 5(1)(c) 禁止社会评分

    • 禁止行为:基于社会行为或个人特征对自然人或群体进行分类评分,且评分导致不相关社会背景下的不利或歧视性待遇,或处理与行为严重性不成比例。

    • 条件:需同时满足上述条件;评分需基于一段时间内的社会行为或个人特征;处理需在不相关社会背景下或不成比例。

  4. Article 5(1)(d) 禁止个体犯罪风险评估与预测

    • 禁止行为:仅基于个人画像或个性特征评估或预测个人犯罪风险。

    • 条件:需同时满足上述条件;评估或预测需仅基于画像或个性特征;评估需用于特定执法目的且已有客观可验证事实支持。

  5. Article 5(1)(e) 禁止无目标抓取面部图像

    • 禁止行为:通过无目标抓取互联网或闭路电视中的面部图像来创建或扩展面部识别数据库。

    • 条件:需同时满足上述条件;抓取需无特定目标;数据源需为互联网或闭路电视。

  6. Article 5(1)(f) 禁止在工作场所和教育机构进行情绪识别

    • 禁止行为:在工作场所和教育机构使用基于生物识别数据的情绪识别系统,除非用于医疗或安全原因。

    • 条件:需同时满足上述条件;使用需在工作场所或教育机构;识别需基于生物识别数据;除非有医疗或安全原因。

  7. Article 5(1)(g) 禁止基于生物识别数据的敏感特征分类

    • 禁止行为:使用生物识别分类系统对个体进行分类,以推断其种族、政治观点等敏感特征。

    • 条件:需同时满足上述条件;系统需为生物识别分类系统;分类需针对个体;需推断敏感特征;除非用于合法标签或过滤。

  8. Article 5(1)(h) 禁止在公共场所为执法目的使用实时远程生物识别鉴定系统

    • 禁止行为:在公共场所为执法目的使用实时远程生物识别鉴定系统,除非符合特定例外情况。

    • 条件:需为远程生物识别鉴定系统;使用需为实时;需在公共场所;需为执法目的;除非符合搜索受害者、预防威胁或定位嫌疑人等例外情况。

例外情况与保障措施

  1. Article 5(1)(h)的例外情况

    • 搜索受害者:允许为搜索被绑架、人口贩卖或性剥削的受害者及失踪人员使用。

    • 预防威胁:允许为防止对生命或安全的具体、重大且紧迫威胁或恐怖袭击威胁使用。

    • 定位嫌疑人:允许为定位涉嫌犯有附件II所列严重罪行的嫌疑人使用。

  2. 保障措施

    • 先期授权:每次使用实时远程生物识别鉴定系统均需司法或独立行政机构授权。

    • 基本权利影响评估:部署前需完成基本权利影响评估。

    • 系统注册:需在欧盟数据库注册授权使用的系统。

    • 人类监督:决策不得仅基于系统输出,需人类监督。

执行与监督

  1. 市场监督机构:成员国需指定市场监督机构负责执行AI Act。

  2. 年度报告:市场监督机构和数据保护机构需向欧盟委员会提交年度使用报告。

  3. 罚款:违反Article 5 AI Act的禁令将面临高达3500万欧元或全球年度营业额7%的罚款(以较高者为准)。

其他相关规定

  • 与欧盟其他法律的互动:AI Act需与其他欧盟法律(如数据保护法规、消费者保护法规等)保持一致并互为补充。

  • 研究与测试豁免:为科学研究与开发目的进行的AI活动不受AI Act禁止性规定的限制。

  • 个人非专业活动豁免:自然人在纯粹个人非专业活动中使用AI系统不受AI Act义务的限制。

     

 
 
 
 
 
 

免责声明:本号所载内容均为原创、投稿、授权转载或网络公开资料搜集整理,仅供读者交流学习使用,版权归原作者所有,且仅代表作者个人观点,与本号立场无关。若所引用的图片、数据、文字等来源标注有误或涉及侵权,烦请及时联系删除。

 

 

 

首页    政策法规    法规标准    欧盟发布禁止类人工智能(不可接受风险)实践指南
创建时间:2025-02-10 16:20
浏览量:0