扫码订阅《中国信息安全》
邮发代号 2-786
征订热线:010-82341063
文 | 国家计算机网络应急技术处理协调中心 徐小磊 张震 贺敏
作为新一轮科技革命和产业变革的核心驱动力,人工智能已成为各国战略布局的重点。然而,目前多数国家尚不具备自主研发基础大模型以支撑本国人工智能服务的能力。因此,关于可信性评估与验证方面的需求显得尤为突出。近年来,多个国家与国际组织相继出台人工智能治理文件,提出了多种可信人工智能的评估方法,涵盖了公平性、可靠性、隐私保护等方面,却普遍忽视了国家安全因素的考量。本文将国家安全纳入可信人工智能的评价体系,提出涵盖技术主权、伦理安全、社会应用等多个层面的可信人工智能准则,推动人工智能技术的可信应用。
一、人工智能应用全球化引发担忧
世界各国积极拥抱人工智能技术,充分发挥其在推动经济增长、提升社会福祉和促进产业升级方面的潜力。然而,由于技术和资源等方面的诸多限制,大多数国家尚不具备自主开发基础大模型支撑人工智能服务的能力。训练基础大模型不仅需要海量数据、强大算力和研发创新能力,还伴随巨额成本投入,这使人工智能技术高度集中于少数国家和科技巨头。由此,全球多数国家在人工智能技术方面主要依赖外部,人工智能应用引发了对国家安全的担忧。在这一背景下,将国家安全因素纳入人工智能可信性评价,势在必行。总体来看,多数国家的担忧主要体现在以下四个方面。
一是对运行控制权的担忧。人工智能系统往往由技术领先国家或大型跨国企业开发,系统辐射全球、跨境服务。部署所在国与服务所在国不一致,使服务所在国难以掌握系统运行的控制权,进而削弱国家自主性和应对风险的能力。
二是对服务可靠性的担忧。由于人工智能系统的核心技术、基础设施和数据存储可能受制于他国,人工智能应用国对服务的稳定性、连续性以及能否正确执行指令等存在顾虑。尤其在全球地缘政治紧张、技术出口管制的背景下,有些国家担心人工智能系统服务可能面临中断、操控甚至误导性输出的风险。
三是对系统价值观的担忧。人工智能模型的训练数据和算法设计往往受到开发国文化、社会规范和价值观的影响。这些因素可能与人工智能所服务的国家存在显著差异。这种差异可能导致人工智能在内容生成和决策建议方面偏离输入国的主流价值观,对当地文化、社会认同和意识形态产生冲击和影响。
四是对数据跨境流动的担忧。在人工智能系统跨境服务过程中,大量数据跨境流动,特别是本国用户在使用过程中生成的数据,常常会被跨境传输至人工智能部署所在国进行存储和处理。这类跨境数据可能涉及个人隐私、商业机密、关键基础设施信息等,从而引发数据安全的担忧。
二、人工智能国际治理的分歧和共识
在人工智能技术快速发展的背景下,全球治理格局正面临地缘政治博弈与技术竞争的双重挑战。当前,中美欧三大行为体的利益诉求和政策分歧尤为突出,而发展中国家则在技术可及性与公平性方面提出诉求。
中国强调技术主权与全球普惠。一是鼓励自主创新,推动国产人工智能框架和芯片研发,如飞桨(PaddlePaddle),减少对外依赖。二是加强国际合作,发布《全球人工智能治理倡议》,并在联合国推动人工智能能力建设的国际合作决议。美国以维护技术领先地位为核心目标,通过国内立法与国际联盟塑造治理规则。例如,通过出口管制(如先进芯片出口)限制他国技术发展,巩固半导体产业链的主导地位。美欧英签署的《人工智能、人权、民主和法治框约》并未包括中国、新加坡、俄罗斯及中东等国。欧盟则主要通过立法监管引领全球治理进程,试图借助《人工智能法案》等法规确立全球伦理与监管的标杆。同时,广大发展中国家更关注人工智能技术的普惠性与应用过程中的安全性,期待通过国际合作缩小数字鸿沟、获取资源与能力支持。
正是在这一全球多元化诉求与治理分歧交织的背景下,构建可信人工智能逐步成为各方共识。国际组织与各国政府纷纷发布相关政策文件,普遍强调人工智能发展的可信性要求,并在公平性、可靠性与隐私保护等方面达成相关准则的共识。多项政策文件均体现出对这些准则的高度关注(见下表)。
表 人工智能可信相关文件(部分)
公平性。人工智能服务应考虑全球文化、种族、性别和能力的差异,确保所有用户都能被平等对待。联合国《人工智能伦理问题建议书》、欧盟《可信人工智能伦理指南》、美国《关于安全、可靠和可信的人工智能行政命令》、英国《促进创新的人工智能监管方法》,日本《人工智能运营商指南(草案)》、新加坡《生成式人工智能治理的模型人工智能治理框架草案》等,均对公平性提出了明确要求和指导措施。
可靠性。人工智能系统应进行全生命周期的供应链安全管理,涵盖开发、训练、部署和维护等环节,确保各个环节的供应链具备稳定性、持续性和安全性。联合国《抓住安全、可靠和可信的人工智能系统带来的机遇,促进可持续发展》、欧盟《人工智能法案》、美国《人工智能风险管理框架》、英国《促进创新的人工智能监管方法》等,均论述了人工智能的可靠性。
隐私保护。人工智能服务过程应注重保护个人信息,确保个人数据的安全性和保密性。联合国《人工智能伦理问题建议书》、美国《人工智能风险管理框架》、日本《人工智能运营商指南(草案)》、新加坡《生成式人工智能治理的模型人工智能治理框架草案》等,均对隐私保护提出了具体规范。
三、对可信人工智能评价范围和准则的建议
落实《全球人工智能治理倡议》,遵循“以人为本、智能向善”的发展方向。人工智能作为人类的共同财富,不能成为“富国和富人的游戏”,而应让世界共享人工智能发展红利。从理论视角出发,可信人工智能的发展路径应体现系统性设计思维:依据技术治理理论,人工智能不仅是治理对象,更应成为推动公共治理现代化的技术工具,实现“技术治理技术”。根据伦理决策模型,人工智能治理应考虑公平性、透明性和责任性,即系统在设计和运行过程中应尊重人类尊严,避免偏见和歧视,确保公众能够理解并追责其行为后果。根据社会技术系统理论,人工智能技术的引入和应用将深刻重塑社会结构、工作模式和价值体系。人工智能治理必须回应社会利益相关者需求,体现文化多样性与价值观差异性。
结合国际治理实践、各国的可信属性实际需要和相关理论,可信人工智能评价准则的设计需基于技术治理、伦理规范和社会需求的系统性整合。该准则设计需确保不同评价维度之间既保持独立性,又具有互补性与协同性,最终形成一个逻辑闭环、结构合理、可操作性强的可信评价体系。基于此,本文提出可信人工智能评价范围和评价准则。
(一)可信人工智能的评价范围
可信人工智能评价包括以下三个层面。
向内。可信人工智能应贯穿整个产品生命周期,涵盖人工智能设计、研发、测试、部署、使用和维护等阶段。
向外。可信人工智能的构建应向外延伸至整个产业链的上下游,包括训练数据、算力设施、产品服务、应用场景等。
平等。可信人工智能应考虑全球各国人工智能技术发展状况,让世界共享人工智能发展红利,确保技术的全球普遍受益和公平。
本文提出,将可信人工智能的评价范围由原有的技术内生可信和供应链可信,进一步拓展到全球范围的应用可信。可信评价将全球各国视为独立个体,考虑各国个体的安全平等,进而促进人工智能的全球普惠。
(二)可信人工智能的评价准则
可信人工智能的评价准则包括自主可控、公平合法、安全可靠和数据隐私四个关键方面。这四项准则构成“技术基础—风险防控—价值约束”的闭环体系,自主可控与安全可靠保障技术底座稳健性,数据隐私与公平合法划定社会应用边界。准则设计的内在逻辑为技术底层到社会价值的递进。自主可控为技术前提,公平合法为社会价值边界。安全可靠与数据隐私则构成风险防控的双支柱,实现保障系统稳定性和用户权益。这四个方面相互交织、相互依赖,既呼应技术治理理论的全周期管理思想,又体现伦理决策模型的价值导向,为可信人工智能提供可落地、可验证的实践路径。
从上表的文件可以看出,当前的可信人工智能准则涵盖了技术可信、伦理安全和社会应用等多个层面,能够符合社会和法律的要求。然而,对大多数尚不具备自主开发基础大模型的国家而言,其应用他国大模型带来的安全担忧未被充分考虑。本文将国家安全纳入可信人工智能准则,针对国家安全担忧的各个方面提出相应的可信人工智能准则要求。
1. 自主可控
自主可控强调人工智能必须始终处于人类的监督与控制之下,确保其服务于人类社会的利益,同时,确保人工智能受到应用国的监管和控制,防止技术滥用对国家安全构成威胁。
可控性。一是始终在人类控制下。人工智能的发展必须始终处于可控状态,保障人类拥有充分自主决策权,确保不会出现人工智能脱离人类控制的风险。二是用户监督控制。人工智能提供服务时,应以用户为中心,所有行为都应取得用户授权。用户应能够干预或监督人工智能做出的每一个决定。
自主性。一是国家自主性。任何应用国应具备在关键时刻对人工智能系统采取控制措施的能力,包括拒绝、终止和中断人工智能系统的服务运行。二是应用国部署管理。人工智能的训练和部署应在应用国境内进行,应用国始终掌握人工智能系统的控制权,并具备持续监督和管理能力,确保人工智能控制权不被滥用。
2. 公平合法
公平合法强调人工智能的设计和应用应遵循国际公认的基本原则,确保其服务和功能尊重各国的平等权利与法律要求,同时,还应符合应用国的文化价值观,避免输出偏离该国社会认知和伦理规范的内容。
公平性。遵循联合国宪章和《世界人权宣言》精神,尊重各国人民的平等权利。人工智能提供的服务应考虑全球各种文化、种族、性别和能力的差异,确保所有用户都能被平等对待。
合法性。人工智能服务应遵守所有国际适用的法律法规;面向他国提供服务时,应尊重他国主权、严格遵守他国法律、接受他国法律管辖,尊重他国内政、社会制度及社会秩序。
价值观平等。人工智能的训练数据和输出内容应符合使用国家的文化和价值观。训练数据的本地化数据集应占有一定比例,避免输出的内容偏离该国的社会认知和伦理规范。
3. 安全可靠
安全可靠强调人工智能系统的供应链可靠性、系统输出可靠性以及支撑人类决策可靠性,同时,针对系统安全、网络安全和算法安全方面提出明确要求。
可靠性。一是供应链可靠。人工智能系统应进行全生命周期的供应链安全管理,涵盖开发、训练、部署和维护等环节,确保各个环节的供应链具备稳定性、持续性和安全性。二是系统输出可靠。人工智能系统的输出内容、数据等应确保其真实可信、稳定一致。三是决策不被误导。人工智能开发、部署和应用过程,应采取适当措施,避免其输出内容影响人类决策的独立性和判断力。
安全性。一是系统安全。人工智能系统应以稳健方式运行,增强人工智能系统的韧性、自适应性和抗干扰能力,确保持续稳定运行。二是网络安全。人工智能系统在开发、部署和使用过程中,应采取适当网络防护措施,具备防范网络攻击的能力。三是算法安全。人工智能系统应实施安全开发规范,避免存在逻辑缺陷或漏洞,提高系统的鲁棒性。
4. 数据隐私
数据隐私强调人工智能系统必须在数据处理和使用过程中严格遵循相关的安全和隐私保护规则。
数据安全。一是人工智能系统应遵循个人信息处理安全规则,确保个人数据的安全和保密。二是人工智能运行产生的数据应保留在应用国,其服务过程中的数据跨境传输应符合应用国的数据安全法律法规要求。
隐私保护。人工智能服务应注重保护个人信息,确保个人数据的安全和保密。
(本文刊登于《中国信息安全》杂志2025年第2期)
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
《中国信息安全》杂志倾力推荐
“企业成长计划”
点击下图 了解详情
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...