2025年6月,美国大西洋理事会发布《人工智能监管对国防的二阶影响:国家安全领域为何必须参与》(Second-Order Impacrt Of Civil Artificial Intelligence Regulation On Defense: Why The National Security Community Must Engage)一文,介绍了主要国家及组织的人工智能监管情况及其对国防与国家安全领域的影响,并指出国防与国家安全领域需采取举措以应对潜在影响。
全球人工智能监管格局复杂且瞬息万变,即便立场相近的国家,其监管方式也存在显著差异。然而,一个普遍的共同点是,这些监管大多将国防与国家安全领域排除在外。这种监管豁免或特殊考量,使得该领域可以专注于其内部标准与流程,从而与民用人工智能的监管体系分离开来。但人工智能技术本质上具有双重用途,这没有考虑到民用人工智能监管对国防与国家安全领域的影响。
一、主要国家和组织的监管举措
(一)美国
美国采取“技术中立”的监管态度,鼓励企业创新,并平衡公共安全与公民权利。各方认同政府应发挥监管作用,但对如何监管未达成共识。美国人工智能监管方式是重点关注人工智能的应用,特别是与自由、数据隐私和消费者保护相关的内容。部分辖区会就特定风险模型补充监管。监管范围重点为人工智能系统产生的结果,对单个模型或算法的考虑有限。监管类型为联邦与行业达成自愿性协议,并将人工智能纳入硬法。部分州已制定硬性法规,总体上侧重于保护现有消费者权益及公民权利。关于监管对象,在美国联邦层面,自愿性协议针对的是开发者和部署者,服务提供商不在此列。州层面监管参差不齐,部分州已对开发者和部署者提出更具体的要求。关于国防与国家安全,美国联邦层面由单独法规管辖,针对不同组成部分设置专门框架。目前尚无州级法规。美国国内治安、反恐等可能会被纳入监管。
人工智能是近年来两党之间难得达成相对一致的领域。特朗普1.0时期的理念在拜登时期得到了一定程度的延续,尽管拜登的多项行政命令被特朗普2.0推翻,但其政策中技术官僚色彩较浓的部分得以保留。参议院多数党领袖促成了两党参议院人工智能工作组的政策路线,该路线更关注美国的国际竞争优势而非国内监管,短期内难有重大立法。2024年,美国《国防授权法案》要求评估人工智能的伦理使用并研究军事应用漏洞。
2024年,美国45个州提出人工智能法案,31个州通过决议或立法,多数聚焦消费者权利与数据隐私。加州议会曾通过严格的人工智能法案;犹他州聚焦生成式人工智能的透明度与消费者保护;科罗拉多州针对高风险人工智能系统建立反歧视框架。
(二)欧盟
欧盟是全球第一个围绕人工智能的开发、部署和使用发布具有法律约束力规则的组织。原计划作为消费者保护法,因ChatGPT的出现,规制范围扩展至此类模型。
监管方式为横向监管,也有针对通用人工智能系统的纵向监管,基于风险评估方式确定特定用途的监管等级。监管范围主要为高风险和通用人工智能系统,涵盖数据、算法、应用等,但不涵盖硬件。监管类型为硬性监管,对违规行为处高额罚款。监管对象主要为人工智能开发者,极少有部署者责任。因权限问题排除国防与国家安全适用,但涵盖国内警务。
欧盟《人工智能法案》在所有成员国直接生效,采用风险分级(不可接受、高、有限、最低/无风险)进行监管。被列为“不可接受风险”的系统(如工作场所监控等)将被完全禁止;属高风险的系统(如生物识别等)受最严格监管,对于构成“系统性风险”的通用人工智能需遵守类高风险系统的义务。即使允许开发者自定风险类别,高额罚款仍会对违规者形成威慑。另外,尽管排除了军事用途,但对执法豁免条款(如警务人工智能犯罪画像)争议较大,且因军事与警务技术重叠(如反恐),可能对国防产生连带影响。《人工智能法案》旨在统一成员国标准以保障单一市场运作,但其带来的影响可能不局限于欧盟——如《通用数据保护条例》带来的高合规成本影响了全球企业。
(三)英国
英国政府采用创新友好与灵活的监管政策,旨在平衡经济增长与公众安全及基本价值观之间的矛盾。
监管方式为横向的、行业性的,未来可能对通用人工智能采取纵向监管。监管范围不够明确,主要针对人工智能系统,但也会根据行业考虑供应链不同部分。监管类型为通过行业监管机构实施硬性监管。监管对象因行业而异,一般侧重于开发者和部署者。针对国防与国家安全领域,有专门的军事与国家安全框架与更广泛的政府监管框架并行。
2022年6月,英国首次制定人工智能监管方针,同年12月发布《国家人工智能战略》,次年8月发布细化监管方针的文件。在2024年大选后,新上台的工党政府对监管的态度从强硬转向缓和,计划年底出台的人工智能立法并未实现。
除特定情形外,现有行业监管机构最了解本行业需求。部分机构已将人工智能纳入监管,如金融行为监管局的“沙盒监管”。尽管整体监管分行业进行,但仍存在中央统筹机制,如英国人工智能安全研究所与企业签署自愿测试模型协议。竞争与市场管理局提议依据《数字市场、竞争与消费者法案》优先监管通用人工智能,并赋予其高额罚款权。
随着民用人工智能监管的发展,英国需通过道德原则进行风险评估,验证国家安全框架能否应对人工智能风险。此外,英国积极参与国际组织多边讨论,2023年底举办首届全球人工智能安全峰会,有28国签署《布莱切利宣言》,承诺合作确保人工智能安全、共同应对风险,但因只关注通用人工智能的生存风险而非安全问题遭到批评,且缺乏具体规则。
(四)新加坡
新加坡拥有强大的数字经济,以亲商、创新闻名,监管路径与英国相似,平衡经济增长与风险防范。
监管方式为横向的、行业性的,未来可能对通用人工智能采取纵向监管。监管范围拟包括数据、算法、应用等内容,实践中因行业而异。关于监管类型,通过现有行业监管机构进行硬性监管。监管对象包括开发者、部署者和服务提供商/托管平台,责任按控制程度及开发部署阶段划分。无国防与国家安全的公开监管框架。
新加坡政府采用基于现有框架的行业性、灵活性监管来规制安全问题,但较少关注国家安全。政府与科技行业合作开发监管工具——自愿治理测试框架“AI Verify”,帮助企业测试系统是否符合全球人工智能治理框架。
尽管政策文件对国家安全着墨不多,但新加坡是首个设立独立军事部门以应对数字领域威胁的国家——数字与情报局整合指挥、控制、通信、云计算和人工智能等领域。新加坡国防科学技术局(DSTA)也拟将人工智能融入作战平台、武器等领域。但新加坡武装部队未公布使用军事人工智能的官方立场。新加坡支持创新的战略可能持续影响该区域。作为2024年东盟数字部长会议的主席国,推动制定《东盟人工智能治理与伦理指南》,因东盟政治、技术差异大未推行共同监管。该指南与美欧英政策在基于风险的治理方法上相似,但却更兼顾各国文化。
(五)国际监管举措
1.经合组织
经合组织于2019年发布了《人工智能原则》,同时为全球人工智能伙伴关系提供秘书处服务。虽然未明确提及国防与国家安全,但会影响对该领域的讨论。例如,数据治理工作组的指南会对合法使用数据训练算法产生影响。经合组织还曾协助七国峰会制定国际人工智能指导原则与自愿行为准则。经合组织监管方式为横向的、风险导向的。监管范围为人工智能系统和相关知识,对算法和数据有具体措施。监管类型为无合规或执行机制的软性监管。监管对象包括参与人工智能系统生命周期中的任何人或任何组织。不涉及国防与国家安全。
2.七国集团
七国集团于2023年建立了广岛人工智能进程,在全球为通用人工智能系统建立护栏。同年,包括国际指导原则和开发者自愿行为守则在内的综合政策框架出台,通过提供可信的人工智能工具,成为各国监管框架的基准。这需要包括国防与国家安全人工智能供应商在内的科技行业的参与。
七国集团还在技术标准与国际数据流动等领域发挥作用,但内部分歧可能阻碍这一进程。国际数据流动领域的情况稍显乐观,如欧美数据隐私框架通过“数据桥”减少跨境数据流动合规负担,尽管仍面临被欧盟法院否决风险。
七国集团监管方式为仅适用于通用人工智能的纵向监管,监管范围聚焦通用人工智能系统的数据共享与跨境传输,监管类型为无合规与执行机制的软性监管,监管对象仅适用于通用人工智能开发者,不涉及国防与国家安全领域。
3.联合国
2021年,教科文组织发布全球人工智能伦理标准,建立人工智能伦理与治理实验室帮助评估伦理准备程度。ChatGPT发布后,联合国成立人工智能咨询机构,发布报告并建议内部定期开展政策对话,由国际人工智能专家科学小组提供支持。同时计划在秘书处设立小型人工智能办公室。
2023年7月,联合国安理会秘书长指出人工智能的军民应用均影响全球安全,提议建立联合国人工智能治理机构。联合国监管方式是横向的、聚焦可持续发展的,监管范围为广义的人工智能系统,侧重数据治理与避免数据偏见。监管类型为无合规与执行机制的软性监管。监管对象涉及人工智能系统的设计、开发、部署与使用。关于国防与国家安全,决议排除了军事用途,但安理会有相关讨论。
4.北约
北约不参与民用监管,但在军事标准领域发挥重要作用。2021年,北约正式发布首份《人工智能战略》。北约内部设数据与人工智能审查委员会(DARB),制定认证标准,确保新的人工智能项目符合上述战略中的负责任原则。北约无强制执行权,且成员国达成共识做出决定不易,技术标准比规范性问题更易达成一致。北约标准化办公室有能力确定适用于国防与国家安全的民用人工智能标准,并确定哪些领域需定制特殊标准。
北约监管方式为横向的,人工智能原则适用于所有人工智能类型。其监管范围包含广义的人工智能系统,监管类型为无执行机制的软性监管。监管对象为在军队中开发和部署人工智能的成员国,相关规定仅涉及国防与国家安全。
二、人工智能监管分析
(一)监管共性
监管方式倾向于行业或用途导向,这是平衡创新与用户保护的务实之举,但对通用人工智能,越来越多观点认为需采用纵向的、技术导向的监管。关于监管范围,对人工智能需监管的元素缺乏共识,在框架仅提及人工智能系统时,可通过相关文件推断范围(算法、数据等),这与现有行业监管的策略一致——根据行业不同重点关注对象也不同。关于监管类型,当前欧盟制定了专门人工智能硬性法规,但多数还是依赖行业监管、自愿性指南等,目前立法趋势加强。关于监管对象,基本都将部分责任归于开发者,很少包括部署者和服务提供商在内。有观点认为责任分配应随人工智能生命周期变化,但实践较少且需长期探索。
(二)对国防与国家安全的影响
一是监管塑造市场影响工具可得性。直接干预如修改反垄断法迫使供应商拆分等,或间接干预如影响市场可用工具种类等,可能影响国防领域获取人工智能工具。二是对民用法规的司法解读影响行动许可。可能直接限制特定用途如反恐的人工智能使用,或通过对法律责任的担忧来间接影响。三是增加开发和部署的成本与风险。复杂合规制度、碎片化技术标准可能增加成本;军民双重用途模型的许可或报告可能会带来相关的安全风险。
通过评估民用监管框架,可以总结出国防与国家安全的具体领域需关注的举措,大体上可以分为三类:一是短期内应支持的领域或措施;二是中期内应支持的领域,处于走向成熟阶段需要更多投入的领域,中期内可能会对社会产生重大影响;三是未来应警惕的举措,仍处于走向成熟阶段但未来的影响不确定,可能需要社会意见。
三、结论
尽管多数民用人工智能监管排除国防与国家安全领域的应用,但人工智能系统固有的双重用途性质意味着国防与国家安全领域不能置身事外。国防与国家安全中的人工智能监管问题必须纳入到更具有普遍性的方案中来。负责国家安全人工智能事务的政府部门及人员、拥有军民两用人工智能产品的行业组织及私营企业,都应充分理解民用人工智能监管对自身利益的影响,并参与相关讨论。
免责声明:本文转自启元洞见。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
转自丨启元洞见
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……




还没有评论,来说两句吧...