2025年6月,美国国会研究服务处(CRS)发布报告《人工智能监管:美国与国际路径及国会立法考量》(Regulating Artificial Intelligence: U.S. and International Approaches and Considerations for Congress),主要介绍了全球及美国人工智能的治理与监管实践,以及美国国会政策考量与立法选择等。关于人工智能监管,美国国会通过的相关法案多为针对性条款,而非具有广泛监管权或禁止特定应用的联邦法律。
一、国际人工智能治理与监管的主要路径
(一)英国
英国的行业法律监管框架是通过现有技术中立的监管框架平衡创新与安全。采用特定行业人工智能监管方式,设有专门人工智能成文法规,依托现有行业法律框架监管人工智能。政府制定人工智能战略与政策,并随着执政党派的更迭调整监管取向。2025年工党发布《人工智能机遇行动计划》(AI Opportunities Action Plan),上议院提出人工智能监管法案。
(二)欧盟
通过欧盟《人工智能法案》(The Artificial Intelligence Act)实施广泛监管。该法案采用风险分类监管,将人工智能系统分为不可接受风险(禁用)、高风险(上市前评估与上市后监测)、透明度风险(信息披露)、低/无风险(无特殊要求)及通用人工智能(技术文档维护与版权合规)五类;设立欧盟人工智能办公室,要求成员国设监管机构并制定违规处罚措施;设置专门章节支持创新。
对该法案存在基本权利保护不足、抑制创新等批评,部分美国科技公司因监管的不确定性暂停在欧盟推出部分人工智能产品。近期欧盟正日益强调竞争力,克服监管壁垒。也有观点认为,该法案可能为开发者带来优势,例如需遵循的法规统一而不零散;符合法案要求的产品可宣称“可信”以获得竞争力。
(三)中国
2017年发布《新一代人工智能发展规划》,提出2030年人工智能世界领先目标,此后出台针对性人工智能监管规则,如《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》。2024年发布《中华人民共和国人工智能法(草案)》,2025年四部门联合发布《人工智能生成合成内容标识办法》。
中国的人工智能监管路径呈现垂直化、技术导向型框架,政府在人工智能研发中作用显著。目前,外国投资正逐步增加,性能上也逐渐缩小与美国差距,政府正采取多元化人工智能发展路径,重点关注基础研究、核心软硬件技术及人工智能应用。
(四)人工智能治理合作
美国参与经合组织、七国集团、联合国等多边合作。2019年经合组织成员国达成《人工智能原则》,2024年为应对通用人工智能、生成式人工智能等新技术发展对其进行了更新。2023年七国集团领导人就人工智能指导原则与行业自愿行为准则达成协议。此外,美国参与联合国推进人工智能全球治理的对话,发起全球人工智能伙伴关系(2020年)等等。
美国与欧盟、印度、英国等开展双边合作。通过美欧贸易与技术委员会(2021年)、美印人工智能倡议(2021年)推动人工智能合作。2023年美国参与英国人工智能安全峰会,两国成立本国人工智能安全研究所,2024年美英两国研究所达成合作,计划联合开发最先进人工智能模型测试方法,2025年两国研究所均调整关注重点。
二、美国人工智能的治理与监管实践
美国联邦法律与政策文件均体现出支持人工智能创新与风险管控的双重导向。
(一)联邦层面人工智能立法
自第115届国会起,国会议员提出数百项含“人工智能”表述的法案,但截至2025年5月,仅不到30项法案生效,其中近半数为拨款法案或国防授权法案中的人工智能专项条款。
《2020年国家人工智能倡议法案》(The National Artificial Intelligence Initiative Act of 2020)最为全面,核心内容包括:将“美国人工智能倡议”纳入法律;设立国家人工智能倡议办公室;在科学技术政策办公室设立跨部门委员会;设立“国家人工智能咨询委员会”。该法案还指令联邦科学机构开展人工智能活动,如国家科学基金会(NSF)需支持国家人工智能研究院网络建设。
《芯片与科学法案》(The CHIPS and Science Act)含多项人工智能条款,指令特定联邦科学机构支持人工智能研发及制定安全可信的人工智能系统技术标准,法案生效后,依托其设立的联邦项目已为人工智能研发提供资助。
另有法律指令总务管理局(GSA)、白宫管理与预算办公室(OMB)等机构支持联邦政府的人工智能应用。《2020年政府人工智能法案》(The AI in Government Act of 2020)在总务管理局设人工智能卓越中心,推动联邦人工智能应用并公开相关信息,要求白宫管理与预算办公室向联邦机构发布人工智能政策制定、应用障碍消除及风险缓解相关的备忘录。《推进美国人工智能法案》(The Advancing American AI Act)要求白宫管理与预算办公室:在制定联邦政府人工智能使用指南中纳入多元考量;制定人工智能采购合同安全规范;要求除国防部外的联邦机构编制提供人工智能用例清单。
其他人工智能相关法律则聚焦人工智能培训、特定行业应用等领域,未确立广泛的人工智能监管权或禁用规则。
(二)国会人工智能行动
近年国会通过成立人工智能核心小组、工作组,举办听证会推进人工智能政策制定。第119届国会参众两院均设人工智能核心小组,为议员提供交流平台。第118届国会期间,参议院两党人工智能工作组举办9场人工智能洞察论坛,2024年5月发布政策路线图,明确了人工智能政策制定的共识领域,如人工智能创新、劳动力等;众议院成立24人两党人工智能工作组,2024年12月发布报告,确立了指导国会未来工作的政策考量原则,如识别人工智能议题的新颖性、防范风险与损害、推动政府应用等。
(三)行政部门人工智能行动
特朗普与拜登政府均采取人工智能相关行动,政策文件均强调创新与风险管控。拜登政府第14110号行政命令(现已撤销)要求联邦机构开展多项人工智能行动,并依据国防生产法案授权,要求企业与实体向政府报告相关信息;特朗普政府第14179号行政命令确立维持美国人工智能全球主导地位目标,要求2025年7月前制定人工智能行动计划。
此外,关于联邦政府内部的人工智能监管,依据相关行政命令与法案,联邦机构需上报人工智能用例,形成人工智能用例清单。截至2025年1月,上报用例超1990个,排名前三的应用类别为:支持机构内部运行、医疗健康、政府服务。该清单旨在提升透明度,但存在完整性与准确性争议,政府问责局等机构提出了改进建议。
(四)美国人工智能监管路径
美国人工智能监管路径主要分为三类。一是直接监管人工智能技术,像设定算力等技术阈值或提出透明度要求等。例如,研发训练所用算力超过10^26次浮点运算(FLOPs)模型的企业需上报相关情况;使用人工智能的自动语音呼叫需进行披露。该路径监管精准性强但灵活性不足。二是采取技术中立方式,跨行业监管人工智能应用。例如,要求联邦贸易委员会强制法案覆盖的实体开展影响评估,并为其提供指导与技术支持。该路径能精准覆盖需关注的技术特征,但仅针对大型企业的监管方式存在漏洞。三是在特定行业内监管人工智能使用,如金融、选举、医疗等领域的专项人工智能法案提案。
三、美国人工智能监管的核心考量
当前美国关于人工智能监管存在两大类观点。一方面,支持强化监管的观点认为,人工智能监管可降低人工智能系统的潜在风险,提升安全性。监管需实现防范对边缘化群体的歧视性影响及明确人工智能责任归属等目标,科学设计的监管应能为创新提供稳定性与清晰度。另一方面,反对强化监管的观点认为,现有联邦法律与机构职权足以应对人工智能风险,人工智能发展迅速,制定或优化监管规则难度较大,额外监管可能抑制创新,降低企业开展“低风险、高安全性”人工智能系统试验的积极性,还可能削弱美国在全球人工智能竞争中的传统优势。
美国国会与政府制定人工智能立法或政策时可采用多元路径,或聚焦安全与风险规避,或聚焦创新并辅以行业自愿承诺,或多路径组合使用等等。无论选择何种路径,如何使人工智能系统契合人类目标与价值观始终是技术难题,以可靠、可扩展方式破解该难题,是当前科研与测试的核心方向。政策制定者需界定人工智能在技术、社会、法律、伦理层面的边界与范围,实现支持创新、提升效益及保护公民权益的目标。在人工智能快速发展背景下,相关举措需动态调整或建立定期审查与灵活适配机制。
四、美国国会人工智能政策考量
与立法建议
(一)依托现有框架
部分联邦机构主张其现有法律职权可覆盖人工智能新技术。2023年4月多机构联合发布人工智能反歧视执法声明,后联邦贸易委员会依法对违规使用人脸识别技术的企业采取了执法行动。
为评估机构职权是否足以支持其人工智能监管工作,2020年特朗普政府曾要求白宫管理与预算办公室(OMB)为联邦机构提供人工智能监管指引,但仅少数机构按要求公开了完整合规计划。国会亦可要求相关机构提供信息或指令调查机构开展评估等。
维持现有监管环境可以避免对人工智能研发与部署施加额外监管限制,但需解决联邦层面缺乏统一法规导致的州级人工智能法律零散化的问题。国会可以通过将现有机构职能活动纳入法律、要求监管机构发布人工智能专项指引、推动跨机构协同制定人工智能安全监管政策等途径支持人工智能发展且不增加额外限制。
(二)制定新的人工智能法规
在联邦层面,新提案包括开展人工智能模型影响评估、第三方审计、人工智能生成内容标记等,重点集中于透明度与问责措施方面。如《2025年防范算法合谋法案》(The Preventing Algorithmic Collusion Act of 2025)禁止使用可能促进合谋的定价算法,并设立反垄断执法审计工具以提高透明度。
部分观点主张政府应强制要求专业审计机构对人工智能进行监督,美国商会等团体则呼吁合理的人工智能监管。一些科技企业建议设置行业许可与安全标准的建议可能存在维护自身利益的倾向,需警惕对初创企业与开源开发者的准入门槛限制。
(三)赋予联邦机构新的职权或指导方向
赋予机构新职权,建立监管沙盒。由监管机构设立框架,允许企业在豁免部分法规法律风险的前提下,在监管监督下测试新产品,再推向市场。消费者金融保护局已在金融领域应用监管沙盒。
依托现有机构推进公私合作,提供指导方向。如推动美国国家标准与技术研究院(NIST)与私企的合作,调整其《人工智能风险管理框架》(Artificial Intelligence Risk Management Framework);要求其与能源部合作建立测试平台,制定人工智能系统评估与演示测量标准战略。
将“国家人工智能研究资源”(NAIRR)纳入法律并明确其定位。普及人工智能研发关键资源,推动负责任的人工智能创新。
(四)参与国际人工智能监管合作
2023年5月,七国峰会将人工智能治理合作列为优先事项。国会可推动与理念相近国家的人工智能监管合作,通过政策目标对齐、指导联邦机构参与等方式推进,呼应往届政府的行政命令方向。同时,需平衡国际合作与国际竞争,提高人工智能监管质量与实施效果,应对为追求快速发展而降低人工智能安全性的逐底竞争风险。此前已有多项与国际人工智能合作相关的法案提案。
免责声明:本文转自启元洞见。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
转自丨启元洞见
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……




还没有评论,来说两句吧...