《全球人工智能治理研究报告》:迎挑战,憧未来,共筑网络空间命运共同体新篇章
来源:世界互联网大会
在21世纪的科技浪潮中,人工智能技术以其颠覆性的力量,正深刻改变着人类社会的面貌。从医疗、教育到交通、工业,人工智能的触角已延伸至社会的各个角落,带来了前所未有的发展机遇。然而,随着其广泛应用,一系列全球性挑战也随之浮现。如何确保人工智能的安全发展,维护人类社会的共同福祉,已成为全球各国亟需面对的课题。
随着人工智能技术的飞速发展,全球正迎来一场前所未有的科技革命和产业变革。人工智能技术的应用已经渗透到医疗、教育、交通、农业、工业、金融等各个领域,为人类社会带来了巨大的发展机遇。
2022年,生成式AI技术的突破性进展引发了全球范围内的广泛关注。ChatGPT等大型语言模型的出现,不仅展示了AI的强大能力,也加剧了人们对AI治理的担忧。在此背景下,近日,由上海社会科学院、武汉大学、同济大学等多家中国智库和高校联合发布的《全球人工智能治理研究报告》,为我们揭示了全球人工智能治理的现状、重要议题及未来发展方向。
全球AI治理的现状与挑战
多边平台的进展
联合国作为全球最大的国际组织,在AI治理方面发挥着引领作用。2023年,联合国秘书长安东尼·古特雷斯宣布成立人工智能高级别咨询机构,标志着全球AI治理进入了一个新的阶段。该机构在2024年发布了《为人类治理人工智能》最终报告,提出了加强全球合作的行动方案。
此外,联合国大会也通过了多项决议,如《加强人工智能能力建设国际合作》和《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》。这些决议强调了AI治理的重要性,并呼吁各国加强合作,共同应对AI带来的挑战。
除了联合国,其他多边平台也在积极推进AI治理。例如,教科文组织提出了伦理框架,得到了50多个国家的积极参与;国际电信联盟连续多年举办人工智能向善全球峰会,成为全球AI交流对话的重要平台。
多方机制的成果
在技术标准、伦理规范等领域,多方机制也在积极推动发展负责任的AI。电气电子工程师学会(IEEE)、国际标准化组织(ISO)和国际电工委员会(IEC)等技术社群发布了多项AI前沿技术标准、伦理准则和管理指南。
例如,IEEE推出了免费获取AI伦理和治理标准的计划,旨在促进AI的负责任发展。ISO发布的《信息技术人工智能管理体系》(ISO/IEC 42001)为各类组织管理AI提供了框架。
此外,一些国际组织和会议论坛也在加快行动。世界经济论坛成立了AI治理联盟,提出了负责任地开发、开放创新和国际合作等建议。世界互联网大会人工智能工作组发布了《发展负责任的生成式人工智能研究报告及共识文件》,致力于推动发展负责任的AI。
相关国家/地区的做法
在全球AI治理的大背景下,各个国家和地区也根据自身的政治文化、产业发展和目标诉求,提出了各具特点的治理方案。
中国
中国作为全球最大的发展中国家之一,一直积极推动AI治理。习近平主席提出的“坚持以人为本、智能向善”的理念和宗旨,为中国AI治理指明了方向。
2023年,中国提出了《全球人工智能治理倡议》,围绕AI发展、安全和治理三方面系统阐述了中国的AI治理方案。此外,国家互联网信息办公室等七部门联合公布了《生成式人工智能服务管理暂行办法》,这是全球首部生成式AI专门立法。
2024年,世界人工智能大会发布了《人工智能全球治理上海宣言》,呼吁全球共同推动AI健康可持续发展。中国还在第19届联合国大会期间发布了《人工智能能力建设普惠计划》,倡议成立“人工智能能力建设国际合作之友小组”。
美国
美国作为全球科技领域的领导者,一直强调AI的创新发展。美国政府发布了一系列政策文件,如《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》,旨在加大对AI创新生态的资金、人才等支持。
同时,美国在AI风险管理上也引导建立最佳实践和标准,并对先进芯片等实施出口管制,以维持其在AI领域的领先地位。
欧盟
欧盟在AI治理方面注重监管立法。2024年,欧盟率先推出了《人工智能法》,积极引领全球AI治理。该法案涵盖了数据保护、算法透明度、AI系统的可解释性等多个方面,旨在确保AI技术的安全、可靠和公平。
英国
英国将AI视为提升其全球影响力的机遇。英国政府发布了《国家人工智能战略》,采取“支持创新”的监管方式。2023年,英国举办了首届全球人工智能安全峰会,并推动签署了首个人工智能安全国际性声明《布莱切利宣言》。
发展中国家
发展中国家也在积极行动。肯尼亚将AI和区块链视为“关键的经济和商业支持技术”,推出了《信息技术-人工智能-人工智能应用实践守则》。埃及组建了国家人工智能委员会,发布了《国家人工智能战略》等文件。哈萨克斯坦则发布了《2024-2029年人工智能发展构想(草案)》,加快构建本国AI生态系统。
科技企业的实践
大型科技企业在AI技术、产业和市场领域具有显著优势,也是参与制定和推进落实全球AI规则的重要载体。
组织建设层面
许多科技企业设立了内部伦理委员会,并推出了企业AI原则。这些原则通常涵盖对社会有益、安全、保护隐私、公平、透明、可解释、可控、负责任等方面。
产业实践层面
在产业实践层面,科技企业致力于提升AI系统的安全性和稳健性,保护数据隐私,提升透明度,提高可解释性,保障公平包容,确保价值对齐,并开展内容安全审核。
国际合作层面
在国际合作层面,多家科技企业联合宣布将打击深度伪造信息,努力检测和抵制欺骗性的人工智能生成内容。此外,一些公司签署了《前沿人工智能安全承诺》,承诺实施内外部测试、信息共享、网络安全投资、第三方漏洞报告机制等措施。
全球AI治理的十大重要议题
随着AI技术的快速发展,全球范围内的AI治理议题日益增多。以下是全球AI治理的十大重要议题:
(一)国家主权原则和AI发展
AI技术的发展与国家主权问题密切相关。一方面,AI技术的战略性发展可用于维护国家主权、安全和发展利益。另一方面,国家主权也面临着来自技术自主性、算法模型、数据、内容、算力、供应链等安全风险的挑战。
国际社会已围绕AI领域国家主权原则适用性问题、AI时代国家主权的内涵和外延变化以及如何维护国家主权、安全和发展利益等展开相关探讨。
(二)社会变革和可持续发展
AI技术在赋能社会经济发展的同时,也对原有社会秩序带来了冲击。发展性议题包括如何利用AI技术帮助传统产业转型升级,提高生产效率,赋能智慧医疗、智慧教育和智慧城市建设,创造新的就业机会,助力推动经济社会发展绿色化、低碳化等。
约束性议题则包括AI训练和运行需要大量的计算资源和能源对环境造成的负担问题,AI在化学、生物、核能等领域给人类社会带来的安全风险问题,以及AI技术发展导致的结构性失业问题等。
(三)技术创新和产业发展
加快发展AI是事关能否抓住新一轮科技革命和产业变革机遇的战略问题。相关讨论包括AI的技术研发、算力问题、创新应用、产业政策、标准制定、产业链和供应链安全等方面。
(四)人机情感和生命伦理
AI技术可能引发根本性的伦理问题,危及人类自身生存和发展。全球各界主要关注人机交互中的情感依附、AI决策的伦理抉择与道德判断、AI带来的结构性影响等议题。
(五)内容安全风险
滥用AI技术生成错误、虚假信息等加剧了内容安全风险。相关治理议题包括大模型生成“幻觉”内容、恶意使用者利用深度伪造技术操纵舆论、智能算法推荐造成“信息茧房”等问题。
(六)模型算法安全风险
模型算法是AI系统的核心组件,直接影响系统运行方式。主要涉及模型算法的可解释性、可靠性、鲁棒性、公正性和抗攻击性等方面。
(七)数据安全和隐私保护
数据安全对于确保AI发展过程中的安全性、可靠性、可控性和公平性意义重大。全球关注的数据安全议题主要包括数据收集和使用中的隐私保护、数据训练中的质量保证、数据处理中的泄露防范等。
(八)产品责任和风险
AI产品涉及多种复杂技术和多元法律主体,出现问题后的责任归属难以明确。通常涉及AI产品的设计者或运营者责任、生产者责任、使用者责任等方面。
(九)知识产权保护
AI技术及其相关产品应用给知识产权保护带来新挑战。专利权方面,AI算法、模型以及系统某些组件可能成为专利权的保护对象;著作权方面,各国对AI生成的内容是否可获得著作权保护尚无定论;侵权行为方面,AI系统使用受版权保护的数据训练具有侵权风险。
(十)智能鸿沟和国际协作
国家间的智能鸿沟问题是AI技术发展在全球数字鸿沟领域的新表现。加强国际协作予以解决智能鸿沟问题是迫切需求。各国虽然都重视AI的国际协作,但个别国家在AI领域大搞技术封锁,阻碍了全球AI的发展和治理进程。
构建完善的全球人工智能治理体系
为了应对上述挑战,报告呼吁建立更加开放、公正且有效的治理机制。首先,应明确目标宗旨,即加强信息交流和技术合作,共同做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范。其次,需要凝聚原则共识,包括尊重国家主权、统筹发展和安全、坚持平等互利普惠等基本原则。最后,则是通过坚持以人为本的价值取向、坚守智能向善的原则、赋能千行百业的实际行动、防范应对安全风险的有效措施、加强国际合作能力建设以及完善全球治理机制等方式,逐步推进全球人工智能治理体系的建设。
报告原文如下
免责声明:本号所载内容均为原创、投稿、授权转载或网络公开资料搜集整理,仅供读者交流学习使用,版权归原作者所有,且仅代表作者个人观点,与本号立场无关。若所引用的图片、数据、文字等来源标注有误或涉及侵权,烦请及时联系删除。