人工智能技术的进展和在全球各行各业的普及,使得其赋能社会发展的同时也带来潜在复杂的安全风险。从隐私泄露、恶意利用、意外后果到生存风险,AI的双重用途及其全球影响要求各国需要充分重视人工智能安全并采取行动。近日,旨在衡量各国在人工智能安全方面的国家当前整体状况和应对AI安全挑战就绪度的全球人工智能安全指数(Global Index for AI Safety)由中国科学院自动化研究所人工智能伦理与治理中心、人工智能安全与超级对齐北京市重点实验室、远期人工智能研究中心等数家单位联合研究并正式发布。
指数围绕人工智能安全的治理环境、国家机构、治理工具、研究水平、国际参与情况以及生存风险应对等6个评估方面,通过12个维度来评估40个国在AI安全方面的就绪度。中国在人工智能安全国家层面的整体就绪度方面处于国际第一梯队。
总体发现:
国家层面人工智能安全就绪度总体评估中国处于国际第一梯队。发达国家在AI安全就绪度上总体表现更好,具有更强的研发能力,与AI安全相关的治理框架更完善,并且更积极地参与国际合作。相比之下,多数发展中国家和新兴经济体面临更多挑战,迫切需要加强治理体系、政策支持和全球协作。同时,各国对与AI相关的生存性风险的预先防范和布局仍然不足,对长期和系统性风险的关注有限,这可能导致在面对重大挑战时准备不足。
主要发现一:近年来,全球AI安全环境日益严峻。
自2022年以来,随着生成式AI技术的突破及其在各个领域的深入应用,AI风险事件的总数激增。根据经济合作与发展组织(OECD)的AI事件监测器(AIM)统计,2024年的风险事件总数比2022年增加了约21.8倍,显示出快速增长的态势。在2019年至2024年间发生的AI风险事件中,约74%与AI安全问题直接相关。2024年与安全直接相关的AI事件数量比2023年增长了约83.7%。
主要发现二:国家人工智能安全研究机构以不同形式呈现快速包容性发展。
主要发现三:部分国家人工智能安全的法律、政策与技术工具逐步出台。
在所评估的40个国家中,17个国家拥有与AI安全相关的治理工具。其中,9个国家,包括中国、英国、美国、德国、日本、韩国、沙特阿拉伯、新西兰、澳大利亚,既拥有国家层面的AI相关安全法律,也建立了技术/政策框架。这凸显了全球通过这些框架对AI安全进行监管的趋势。然而,大多数与AI相关的安全法律主要关注网络安全和信息安全,专门针对AI安全的法律仍然相对较少。大多数技术和政策框架是在2024年发布的,反映了各国在过去一年为解决AI安全问题所做的一致努力。
主要发现四:人工智能安全研究激增,对齐和隐私安全成为最热议题。
主要发现五:人工智能安全的国际协作正在形成,但仍需更广泛的参与。
2023年以来,AI安全已成为全球人工智能治理框架中的核心议题。本次调研的10项/系列AI安全国际合作项目涵盖了政府间合作、产业联盟、学术交流及民间组织协作等多方参与。这些努力反映了全球对AI安全的共识,但也揭示了治理机制中需要更广泛的包容性。
主要发现六:几乎所有国家都缺乏对AI生存性风险的预先防范和布局。
多年来,学术界一直积极参与讨论,并对先进人工智能可能带来的潜在生存性风险表示了极大关注。然而,作为开发、推广和治理尖端AI系统的主要参与者,政府和产业界仍然普遍缺乏对AI生存性风险的预先防范应对。
报告的主要作者之一,中国科学院自动化研究所人工智能伦理与治理中心主任、人工智能安全与超级对齐北京市重点实验室主任曾毅研究员说:“全球人工智能安全指数的评估目的并非要将各国分为AI安全领域的先进或落后者,而是对各国在人工智能安全方面的就绪度做出客观反应,并以此敦促人工智能安全各国的布局与发展。在面临AI的全球安全挑战时没有哪个国家可以独善其身。人工智能发展能力各国虽然存在显著差异,但是人工智能安全就绪度各国应保持相对的高水平。全球人工智能安全指数作为一个评估工具,帮助各国认识到人工智能安全方面自身的优势和劣势。通过分享经验和相互学习,各国之间可以加强合作,协调资源,引导AI走向一个更安全、更可持续的未来。这一共同努力不仅是为了现在,也是为了未来,确保AI成为推动人类向前发展的安全而强大的力量”。
全球AI安全指数是全球人工智能治理评估指数(AI Governance International Evaluation Index)系列研究的一部分。有关全球AI安全指数的更多发现,可访问全球人工智能治理在线观察平台获取完整版报告。
全球AI安全指数: https://agile-index.ai/global-index-for-ai-safety
标签: 人工智能