扫码订阅《中国信息安全》
邮发代号 2-786
征订热线:010-82341063
文 | 陕西省司法厅 周祥军
生成式人工智能技术的快速发展,使得信息披露的透明度要求与技术保护的安全性需求之间形成了治理层面的规范性冲突。一方面,充分的信息披露是维护产业生态健康发展、保障市场公平竞争的制度基础;另一方面,过度披露可能构成技术安全的风险敞口,从而威胁模型稳定性与数据安全性。这种冲突的实质,是对透明度与安全性法律内涵的片面理解,以及对技术创新维度的制度性忽视,由此形成的治理困境亟待法理层面的解析与制度回应。
一、透明度与安全性治理的价值冲突及其法理困境
在生成式人工智能治理中,必要的信息披露是构建产业生态的制度基础,但过度披露却可能危及模型安全,因此,需要在透明与安全之间寻求精准的价值平衡。
(一)信息披露作为生成式人工智能产业发展的制度基础
充分的信息披露不仅是基础模型提供者的法定义务,更是构建健康产业生态的必要制度安排。欧盟《人工智能法案》将这一要求确立为“透明度义务”,为规范生成式人工智能产业链条提供了制度范式。当前,生成式人工智能市场呈现典型的“上游垄断、下游失序”的市场失灵现象。一方面,模型提供者通过API授权设置歧视性条件,以此形成技术准入壁垒;另一方面,信息不对称导致中小企业调试成本畸高、创新成本失衡。欧盟通过立法强化透明度义务,其核心是强制模型提供者向所有符合资质的下游服务者开放包含接口功能、参数说明等关键信息的完整API文档,且不得设置无关门槛。这一举措旨在消除信息壁垒,降低中小服务者适配成本,防止歧视性授权,实质是将API文档作为“必要设施”,保障下游平等接入权,以信息对称促机会均等,以规则透明保竞争公平,为全球生成式人工智能产业规范发展提供重要借鉴。具体而言,生成式人工智能提供者的一般义务包括:一是编制并持续更新模型技术文件,供监管机构和下游使用者查阅;二是向下游人工智能系统提供者提供模型的功能、局限性等信息,确保其能安全集成和使用,不过若模型为免费开源且无系统性风险,可豁免该义务。
(二)过度信息披露对基础模型安全性的制度挑战
基础模型凭借“预训练—微调”的通用架构实现跨领域能力迁移,其技术渗透已覆盖生产、生活、科研等核心领域。尽管技术跃进伴随的“黑箱性”引发了治理焦虑,但过度信息披露反而会加剧安全风险,形成新的治理悖论。一方面,过度披露API文档可能降低基础模型的防御能力。作为模型与下游应用交互的核心接口,API文档包含技术参数、调用逻辑等关键信息,若无节制进行公开,可能成为恶意攻击的“技术指南”,使攻击者更容易发现系统漏洞、突破防护机制,对模型的稳定性与安全性构成直接威胁。另一方面,过度披露模型技术细节可能助长数据窃取风险。训练规则涉及数据处理逻辑、特征提取方式等核心细节,其过度公开可能为“套取攻击”提供便利,即攻击者可利用这些信息设计针对性策略,诱导模型泄露训练数据内容,导致海量敏感数据(包括个人信息、商业秘密等)面临被窃取的风险,进而引发隐私泄露、知识产权侵权等连锁问题。这种透明度与安全性的价值冲突,揭示了基础模型治理的特殊性,即绝对封闭将导致问责缺失,而过度透明则可能放大安全风险。如何平衡二者关系,成为规范基础模型发展的关键法律议题。
(三)价值平衡是生成式人工智能安全治理的核心原则
基础模型的安全治理不应局限于消极防御的单一维度,而应当立足于技术创新与安全保障的价值平衡。从规范法学的视角审视,安全治理的价值目标不仅在于通过技术规制和制度设计防范系统风险,更在于为人工智能产业的可持续发展提供制度保障。这一理念与知识产权保护制度的价值取向具有内在一致性,即技术创新的制度保障始终是安全治理的前提和基础。基础模型服务提供者在信息披露与安全保护之间的制度选择,本质上反映了技术创新与安全保障之间的价值协调问题。因此,在规范建构层面,需要防范两种制度偏差:一是过度强调安全保障可能导致技术封闭,抑制创新活力;二是片面追求透明度可能削弱技术防护,危及系统安全。因此,构建兼顾必要透明与合理保密的法律框架,确立动态平衡的规范标准,成为促进生成式人工智能可持续发展的关键所在。这要求立法者在制度设计时,既要确保充分的信息披露以实现有效监管,又要维护必要的技术保密以保障创新空间。
二、传统治理路径的局限与重构路径
基础模型的动态性、复杂性与泛在性,同传统法律治理体系的静态性、单一性与封闭性产生根本冲突,引发了治理效能衰减、规范逻辑错位与制度功能僵化的系统性困境,亟待寻求新的治理路径。
(一)现有监管模式的结构缺陷
基础模型的快速迭代使其治理成为全球性法律难题,而现行安全监管模式与信息披露义务的制度设计,在实践中呈现显著的局限性。其核心症结在于,未能通过法律技术调和信息披露与安全保护之间的规范冲突,陷入“强制监管”与“自愿合规”的对立,最终导致制度效能减损。
欧盟以《人工智能法案》为核心构建“强制监管模式”,采用分级风险管控技术,对高风险模型要求承担严格的信息披露义务。基础模型提供者的信息披露义务涵盖训练数据来源的合法性证明、算法逻辑的可追溯性说明、偏见检测的方法论报告等要件,并以第三方审计作为市场准入的强制性前提。此模式的制度缺陷有二:其一,对“透明度”作字面的法律解释,将其等同于“信息的全面披露”,忽视基础模型作为规制对象的技术黑箱属性,即部分算法逻辑的“不可解释性”是当前技术阶段的客观局限,强行要求全量披露只会导致合规形式化;其二,将安全治理简化为“通过强制披露实现公权介入”的过程,未能建立与模型动态演进性相适配的回应型机制。实践表明,静态的事前披露要求难以覆盖技术全生命周期的风险变异,而过度扩张的披露义务可能产生规范外溢效应:企业为满足合规要求被迫披露核心技术秘密,或因规则僵化抑制技术探索,最终导致安全价值与创新价值的规范失衡。
美国人工智能发展战略以“维护人工智能领域领导地位”为核心政策目标。2025年1月23日颁布的《消除美国在人工智能领域领导力的障碍》行政命令,标志着美国在人工智能领域的政策取向已明确转向放松监管以促进创新的路径,旨在强化其在全球人工智能竞争格局中的主导权。现行立法对基础模型提供者采取“自愿披露”的合规模式,通过非强制性的风险管理指引将信息披露设定为市场主体的自律性义务。此种规制模式存在明显的市场失灵缺陷:首先,在信息不对称的市场环境中,企业基于理性选择理论必然对训练数据来源的涉敏信息、算法歧视的实质风险等关键要素进行策略性披露;其次,由于缺乏具有法律约束力的统一标准,导致透明度要求呈现碎片化特征,监管机关难以建立有效的风险评估框架;最后,信息披露的不完整性实质上损害了公众知情权,致使社会公众无法形成对人工智能系统行为的合理预期。
以上两种规制模式均面临以下结构性困境:其一,治理目标的单一化倾向,强制性监管将“安全”价值简化为“可验证的透明度”,而自愿合规模式则将“创新”价值等同于“低干预的自主性”,二者均未能妥善协调安全、创新、公平等多元法律价值的平衡关系。其二,技术适配性的规范缺位。现行规制框架未能充分回应基础模型的技术特性对法律规制的特殊需求。从规范分析视角看,当监管逻辑与底层技术架构存在根本性错位时,无论采取高强度的事前许可模式,抑或采取低约束的自律机制,均难以实现治理效能的最优配置。
(二)传统法律原则的适用困境
传统法律原则在基础模型治理场域的适用困境,本质是规范逻辑与规制对象特性的系统性脱节。基础模型的动态性(技术持续迭代)、复杂性(算法黑箱与多元风险交织)及泛在性(跨领域应用渗透),与法律规范固有的稳定性、明确性与边界性形成结构性张力,导致原则适用的效能衰减。
其一,公共利益原则的异化。公共利益原则在基础模型治理中呈现“泛化解释”与“选择性适用”的乱象,根源在于传统法律对“公共利益”的界定无法覆盖新型风险的复杂性。根据传统法理,公共利益的判断需满足“损害的紧迫性”与“受益的普遍性”这一双重标准,但基础模型的风险具有显著的“潜在性”与“非线性”,风险可能通过长期累积显现,微小的技术调整可能引发跨领域连锁反应,其影响范围与程度难以用传统标准量化。这种复杂性使公共利益原则陷入悖论:监管机构可能以“公共安全”为由要求过度披露,却忽视技术细节披露衍生的次生风险;企业可能以“商业秘密保护”为由拒绝必要披露,却回避技术应用的负外部性。二者的争议实质是传统判断标准与新型风险的错配,因缺乏适配技术特性的衡量标尺,公共利益沦为各方争夺治理话语权的工具。
其二,比例原则的失灵。比例原则所要求的“手段与目的适配”“损害最小化”“成本收益平衡”,在基础模型治理中因忽视其动态性与复杂性而系统性失灵。首先,静态规则与动态风险存在逻辑矛盾,模型风险等级随技术迭代、应用场景、用户行为进行动态演化,但传统比例原则依赖“事前判断”与“统一标准”,这导致其难以应对这种情境化变异。其次,技术复杂性与判断局限性形成认知冲突,模型黑箱特性使风险评估高度依赖专业知识,而传统监管者的技术认知局限可能导致“比例判断”失当。最后,多元利益的权衡陷入困境,治理涉及安全、创新、公平等多元价值,传统比例原则的成本和收益计算多局限于单一维度,难以量化技术创新的长期社会价值与算法公平的隐性收益。
(三)治理范式的规范重构路径
基础模型治理的深层障碍,在于对“透明”与“安全”的单维化认知,将二者简化为非此即彼的二元对立,构建适配基础模型特性的信息披露规则体系,其核心是在规范层面实现三重视角转换。
其一,信息披露概念的分层化重构。传统将“信息披露”等同于“全量公开”的认知,违背规范适当性原则。根据“需求导向的分层披露”逻辑,信息披露应是一个多维谱系。对于监管机构,需披露算法架构的可追溯性设计等核心技术细节以实现风险评估;对于研究机构,需开放模型偏见的验证环境等测试接口以实现学术监督;对于普通用户,仅需披露模型生成内容的识别标识等能力边界以保障知情权。这种分层既符合“最小必要原则”,又能避免“过度披露危及安全”或“披露不足导致问责失灵”的困境。
其二,安全范畴的广义化拓展。传统将“安全”局限于“数据不泄露”“系统不被攻击”的技术维度,窄化了其规范内涵。根据风险社会理论,基础模型的安全风险应包括两类:一类是训练数据泄露、系统被恶意劫持等技术性风险,另一类是算法偏见导致的群体歧视、信息茧房引发的认知极化等社会性风险。社会性风险虽不直接表现为技术故障,却可能对社会公平与公共利益造成深远损害,其防控恰恰需要特定形式的透明度支撑。
其三,创新价值的规范化嵌入。传统治理逻辑将创新视为透明与安全的“对立面”,违背法律与技术协同演进的基本规律。根据“负责任创新”理论,创新本身即是治理的核心目标,健康的创新生态需要规则的确定性与包容性。二者的协同可通过三类规则设计实现:明确核心技术的合理保密期以保护知识产权,设立监管沙箱为前沿应用提供试错空间,通过标准化的信息披露要求降低合规成本。将创新纳入治理目标体系,意味着“安全”的内涵需拓展至“技术生态的可持续性”。
因此,对透明与安全的单维理解,本质是用静态、封闭的法律思维应对动态、开放的技术变革。破解困局需构建“安全底线—透明必要—创新空间”的三元平衡框架,以分层透明回应多元治理需求,以包容创新激活产业生态。
三、构建“梯度透明”法律体系
本文提出“梯度透明”法律规制框架,旨在协调安全、透明与创新之间的价值平衡,以突破单一化规制模式,依据风险等级、对象类别等多重标准,对信息披露义务进行差异化配置,既能保障数据安全,又为创新留出空间。在规范构造上,强调信息披露与数据安全的统一,并通过分类分级、技术处理等手段落实比例原则。就具体制度要素而言,“梯度透明”法律体系需要重点解决三个核心问题:信息披露的内容边界、信息披露的主体责任以及信息披露的监督机制。
(一)构建分层信息披露义务
基于风险规制理论,“梯度透明”制度通过三维度评估体系确立差异化的信息披露义务:在风险等级维度上,依据风险评估标准,采用“损害程度—影响范围—发生概率”的三重指标,将人工智能模型划分为极高风险、高风险和中低风险三个等级,并配置相应的信息披露义务。在披露对象维度上,根据信息接收主体的不同法律地位和需求,对监管机构、第三方审计机构、下游开发者及社会公众等主体设置差异化的信息披露标准,实现精准化的信息供给。在生命周期维度上,针对研发、测试、运营、退出等不同发展阶段的特点,建立动态调整的信息披露机制,确保信息披露与风险变化的同步性。突破传统“全公开”或“全保密”的简单二分法,且通过多层次、差异化的义务配置,在保障数据安全的前提下,实现技术创新与信息披露的良性互动,其核心价值在于建立与风险等级、主体地位和发展阶段相适应的动态平衡机制,既满足监管需求,又为技术创新保留必要空间。
其一,风险导向的义务分级设定。根据风险等级差异化的信息披露义务配置,可作如下规范设计:针对应用于关键信息基础设施领域的模型等极高风险等级的人工智能系统,应当适用“验证型透明”标准,即要求相关主体向国家监管部门完整披露核心算法逻辑、训练数据处理流程等关键技术信息,但源代码等核心商业秘密可不予公开;针对应用于医疗诊断、金融风控等领域的模型等高风险等级的人工智能系统,应当采用“审计型透明”标准,强制要求向具备资质的第三方审计机构开放必要的测试接口,并定期公布包含算法功能说明、局限性分析等内容的系统信息卡;针对应用于娱乐休闲、客户服务等领域的模型等中低风险等级的人工智能系统,仅需履行“告知型透明”义务,即向终端用户明确标识人工智能生成内容,并说明系统的基本功能和数据使用政策。
其二,分级标准的立法固化。在立法层面,应当通过规范化的制度设计确立风险分级标准:首先,明确界定各风险等级的适用范围,其中极高风险等级适用于关键信息基础设施控制系统,高风险等级以“可能影响公民基本权利”为判定标准,中低风险等级则排除纯个人用途且无传播功能的系统,并建立定期评估调整机制;其次,以清单形式规定各风险等级的最低披露要求,包括极高风险等级系统向监管部门披露核心算法和应急预案的义务,高风险等级系统向社会公开系统信息卡和偏见检测报告的义务,以及中低风险等级系统向用户告知人工智能属性和功能限制的义务;最后,设置灵活的保密豁免审批程序,要求申请者提供充分证据证明披露可能造成的重大损害,并提出可行的替代性合规方案,经独立监管机构审查批准后方可适用临时豁免。
其三,披露范围与安全红线的边界划分。信息披露范围的法定边界应当依据数据类型与风险等级双重标准进行界定:首先,对于API接口规范、合规性证明文件等非敏感技术信息,应当确立强制完整披露义务;其次,训练数据来源分类及合规性说明等涉及敏感数据关联的技术信息,应当经过严格的匿名化处理后予以披露,确保去除所有可直接或间接识别特定主体身份的要素;最后,对于涵盖原始训练数据集、核心算法架构设计、未公开参数等核心安全数据,应当设定绝对保护义务,禁止任何形式的公开披露。通过分类披露机制的设计,满足各利益相关方的合理信息需求,防范数据泄露和技术外泄风险,并在保障知情权与维护技术安全之间实现合理平衡。
(二)健全全链条责任体系
全链条安全责任体系的构建应当遵循“责任分层、义务闭环、救济多元”的基本准则,通过法律规范明确界定模型提供者、下游服务者以及监管机构等各方主体的权利义务边界,从而形成涵盖“源头预防—过程监督—损害救济”的完整法律治理机制,确立模型提供者的信息披露义务与安全保障责任,规定下游服务者的合理使用义务与注意义务,并明确监督机构的审查职责与监管权限。
其一,明确模型提供者的源头责任。关于模型提供者的法律责任规范,应当从以下三个层面进行制度设计:首先,确立模型提供者作为信息披露首要责任主体的法律地位,并要求其对信息披露的充分性、准确性和安全性承担第一性责任;其次,明确其具体义务内容,包括严格履行梯度披露义务以确保信息披露符合风险等级要求、建立健全内部合规审查机制对拟披露信息进行必要技术处理,以及采取有效措施保障数据安全;最后,规定相应的法律责任体系,包括对未履行披露义务行为承担主要责任、因信息披露不当造成损害时依法承担民事赔偿责任,以及违反强制性披露规定时承担相应行政责任。
其二,规定下游服务者的使用责任。关于下游服务者的法律责任规范,应当从以下三个层面进行制度设计:首先,确立下游服务者作为信息披露接收方的法律地位,要求其严格遵循最小必要使用原则,将信息使用限定在模型适配开发的合理范围内;其次,明确其具体义务内容包括不得实施擅自拆解、倒卖等超出授权范围的行为,禁止通过逆向工程等不当手段获取敏感数据,以及采取访问控制、数据加密等必要的技术保护措施;最后,规定相应的法律责任体系,包括因管理不当导致信息泄露时承担连带责任,如破解API文档中的脱敏数据并予以出售且情节严重构成违法行为时依法追究行政责任,以及涉嫌犯罪时承担刑事责任。
其三,多元协同的责任救济机制。关于责任救济机制的构建,应当确立以下法律规则:在举证责任分配方面,对高风险人工智能模型引发的损害赔偿纠纷适用过错推定原则,即受害人仅需证明损害事实与模型使用之间存在因果关系,模型提供者则需举证证明其已履行法定的信息披露义务且损害结果与模型缺陷无关,否则应当推定其存在过错;在救济途径方面构建多元化救济体系,包括罚款、责令暂定服务等行政救济措施,损害赔偿、集体诉讼等民事救济方式以及对高风险人工智能模型实行强制责任保险,保险费率与模型合规程度相挂钩的保险救济制度。
全链条责任体系通过明确各方“谁披露、谁负责,谁使用、谁尽责,谁监督、谁担责”的义务边界,既防止模型提供者以“安全”为由规避披露义务,又遏制下游服务者滥用信息的行为,最终实现信息披露与安全保护的动态平衡。
(三)完善动态监督机制
构建适应基础模型技术特性的监督体系,是平衡信息披露充分性与安全性的制度保障。该机制设计需突破传统静态监管模式,针对技术快速迭代与算法不可解释性特点,建立动态化、专业化、社会化的监督框架。
其一,构建技术适配性的动态监管机制。需在规则细化的动态化与监管沙箱的创新容错性之间形成制度协同。一方面,应制定配套细则,将信息披露的梯度标准与边界尺度予以规范明确,其核心在于依据模型迭代频率差异化设定披露周期,例如,对高风险模型实行季度性技术文档更新机制,并要求重大架构调整同步提交风险影响评估报告。另一方面,通过监管沙箱为技术创新预留试错空间,并构建“测试—评估—授权”的准入程序,申请者需预先提交风险防控方案,沙箱内模型可适用差异化披露规则,部分非核心信息披露义务得以免除,同时建立严格的沙箱退出评估标准,确保创新成果转化阶段符合全生命周期合规要求。
其二,构建专业化监督与动态反馈机制。在信息披露充分性审查方面,依据法定披露清单核查模型提供者是否完整履行API文档、功能参数及更新计划等披露义务,防范以数据安全为由不当隐匿关键技术细节。在数据安全合规性审查方面,严格审查披露内容是否存在未脱敏的敏感信息,并评估其技术处理是否符合法定标准。同时,监督过程需采用基准测试与随机抽检相结合的动态方法,对高风险领域实施重点监测。还可以建立异议复核机制,允许被监督对象在法定期限内对审计结论提出申辩、反馈,既确保信息披露的实质有效性,又维护数据安全的底线要求,以此形成与技术迭代速度相适应的动态监督闭环。
其三,构建动态认证与公示机制,引入社会力量以弥补监管机构在执法资源与技术响应方面的不足。一方面,可由第三方专业机构定期出具“信息披露与数据安全双合规评估报告”,对基础模型提供者的合规状况进行等级评定并向社会公开。此举旨在激励社会公众及专业人士以多元方式参与监督,通过提出异议、举报违法线索等形式形成外部约束。另一方面,应建立“合规激励”制度,借助市场竞争机制促进信息披露与数据安全的动态平衡。下游服务主体可依据合规评级选择合作对象,形成市场化筛选机制。监管部门则将评级结果作为差异化执法的依据,对连续处于低评级区间的主体强化检查频次与惩戒力度,同时通过市场实践提炼数据安全与信息披露的平衡标准,为规则完善提供实证基础。
四、结 语
基础模型治理面临的核心困境在于,传统法律规制范式难以有效应对技术黑箱特性带来的制度性挑战。本文提出的“梯度透明”规制框架,一方面,通过构建差异化信息披露义务体系,以风险分层理论确立安全保障的底线要求;另一方面,通过精准化信息披露机制满足多元主体的知情权诉求,同时为技术迭代保留必要的制度弹性空间,推动突破传统人工智能安全治理“全有或全无”的困境。概言之,在生成式人工智能治理中,唯有摒弃形式平等的简单化规制思路,建立类型化、动态化且具有技术适应性的治理体系,方能在保障技术发展的同时,坚守安全底线与公平价值,为人工智能时代的法治秩序构建提供规范性支撑。
(本文刊登于《中国信息安全》杂志2025年第9期)
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
《中国信息安全》杂志倾力推荐
“企业成长计划”
点击下图 了解详情
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……




还没有评论,来说两句吧...