作者:礼丰律师事务所
引言
人工智能(AI)的爆发式发展,在点燃整个社会热情的同时,也引发了多维利益冲突与重构,对个人、企业和国家都产生了重大冲击:
1. 对个人而言,数据隐私失控将带来信任危机,肖像权等人格权益受侵害事件频发,财产与身心安全也面临AI威胁;
2. 对企业而言,数据与商业秘密的保护决定AI工具能否落地应用,知识产权归属(如AIGC作品)与市场竞争规则将决定商业护城河;
3. 对国家而言,AI滥用或引发社会秩序混乱(如虚假信息传播),而技术“卡脖子”、产业生态建设及国际话语权争夺,使AI成为大国博弈的战略焦点;
4. 当前的监管规则如何应对这些权益冲突?——尽管公私营部门都在探索创新治理,全球监管仍陷于“原则共识、规则割裂”的困局。
礼丰律师事务所(“礼丰”)联合上海企业合规研究中心(“合规中心”),基于统计数据及各方典型事件,以个人、企业、国家及社会各主体维度权益的影响与合规挑战,结合在人工智能行业项目中的实践经验,起草了《人工智能侵权法律报告:问题、事件和挑战》(“报告”)。
近期,我们将会发布该报告,并就其内容举办分享活动,欢迎关注并报名,报名方式请见文末。
人机交互时代,
围绕人工智能发展的个人权益担忧
1. 人工智能快速发展,但用户数据到底如何利用与保护始终成“谜”
当前备受关注的典型问题是,生成式人工智能(“Gen AI”)模型对数据的依赖,让“使用用户数据训练模型”成为许多企业的默认做法。
我国目前暂未有针对性执法,但域外已有多家企业陷入相关争议甚至处罚,例如LinkedIn, X, Meta, Open AI等。
为此,我们选取了中美10家模型厂商在实践中对这一问题所采取的策略,发现企业在实践中对用户权益保护措施仍有一定差距(详见后文表1)。主要体现在以下方面:
明确告知:有1家企业未明确披露;另有3家企业采取了“优化服务”等笼统、间接性的表达话术。
使用数据种类:均表达为“输入和输出内容”,仅有1家企业对使用数据的具体种类做了进一步说明。
脱敏处理:8家企业均声明采取了“去标识化”措施,1家企业声称达到“匿名化”,但并不清楚具体采取了哪些措施、能达到何种效果。
实现机制:仅4家企业提供了交互按钮。
可见,“脱敏处理”已成为企业的通行做法,为其利用用户数据添加一层“合理” 的保护。但我们仍建议,企业进一步提高透明度、为用户提供便捷的行权机制。
表1 – 企业使用用户数据相关实践调研
2. 人格权益纠纷将因人工智能的发展而显著增多
Deepfake技术让个人生物特征易被“复制”,引发人格权侵害问题。这样的事例在过去的一年频繁上演,引起了广泛的关注和讨论。
“三只羊”的“录音门”事件,其中的音频正式通过AI制作;此外,知名演员、科学家、企业家、医生等公众人物的形象与其背后的流量、商业价值紧密相连,成为主要“受害者”,网络上充斥着各类换脸带货视频或声音模仿素材,并具有惊人的相似度,这些内容通常用于广告宣传或其他商业目的,严重侵犯了其人格权益。
礼丰业对当前发生的司法纠纷及相关法院判决观点进行了检索与整理。2023年至2025年2月,因AI技术引发的民事纠纷有39起,其中超25%涉及人格权侵权纠纷,包括肖像、名誉、声音等各类人格权益。从判决结果看,未获得自然人合法授权,法院多认可构成侵权。
3. 人工智能的发展将对个人身心健康与安全造成难以估计的影响
除了个人的形象,AI的智能决策还可能会导致我们的身心健康与安全受到实质性的影响。自动驾驶是相关权益侵害最典型的AI应用场景之一。根据我们对美国官方数据的统计,2022至2025年美国共发生2,927起自动驾驶相关事故,造成47人死亡。2025年3月,广受大众关注与喜爱的小米SU7在高速发生交通事故,又将智驾安全问题推上了风口浪尖。
除了身体健康,“AI伴侣”等应用日益流行,对个人心理健康的影响也不容忽视,尤其是其用户和受众可能包括心理脆弱者、老年人、未成年人等群体。因AI聊天诱发心理疾病与自我伤害的极端案例也已有发生,14岁美国少年因沉迷AI而自杀身亡的悲剧事件,为行业敲响了警钟。
除了相关安全评估原则性要求,我们在报告中,以典型的医疗行业与自动驾驶行业为例,进一步探讨了行业安全要求的探索规则。鉴于AI在垂类产业应用广泛且具有较大差异性,还需结合不同产业应用实际情况,尽快制定具体规则。
4. 消费者权益与财产权益将可能被人工智能控制和削减
从“大数据杀熟”到“意图经济”,人类越来越多的行为数据被获知和预测。AI工具被应用在虚假宣传、算法操控等领域,为消费者设置了真假难辨的“消费陷阱”。
以“人工智能”和“算法”为关键词,礼丰在专业法律数据库中,对过去两年(2023年和2024年)公开的行政执法案例及司法案例进行了全面检索,并进行了初步的人工筛查。统计发现,最为常见的案例类型涉及利用算法技术侵害消费者或用户权益的行为,典型行为例如,操纵虚假流量、隐匿用户评价等【3】。
同时,AI工具也降低了犯罪门槛,以“换脸诈骗”为代表的危害个人财产权益的犯罪案件频发。
我们在报告中进一步讨论了应对这一挑战的针对性监管规则与执法趋势。例如,针对人脸识别技术应用的专门规定《人脸识别技术应用安全管理办法》,以及《人工智能生成合成内容标识办法》及相关强制性标准等。
人工智能发展对企业而言,
有哪些暗流风险涌动?
人工智能的发展给企业在数据与商业秘密保护、信息网络安全、市场竞争和知识产权等方面带来了新挑战。尤其是生成式AI工具引发的复杂知识产权利益冲突,热议不断。
1. 人工智能发展将加速企业数据和商业秘密泄露
AI已广泛进入办公场景,企业数据资产和商业秘密的保护,是企业利用AI工具最为关切的核心问题。为此,在Chat GPT掀起热潮后,出于数据隐私保护及安全考虑,全球多家金融机构宣布禁止员工在工作中使用该工具。
与此同时,如何管理、引导员工对AI工具进行合理利用,也是一大课题。以三星半导体机密资料泄露案件为典型,内部人员不当利用AI工具导致泄露企业机密的案例已有发生,而不只是一种预警。
有关监管机构已经关注到这一系列问题。例如,香港个人资料隐私专员公署在最近发布了《雇员使用生成式AI的指引清单》,为企业员工合理利用工具提供指导。
此外,AI模型企业也通过多种解决方案以增强用户信心。例如,不少模型厂商承诺不会收集、使用企业用户的数据进行训练。铺天盖地的DeepSeek开源模型及其私有化部署方案,似乎为解决企业数据安全问题提供了万无一失的“解药”。
但需要注意的是,针对数据和商业秘密保护的痛点,大模型本地化部署或许是有效的手段,但绝对安全是伪命题。
2. 人工智能发展将颠覆企业信息网络安全传统思路
AI技术与工具可能会被不法分子用于增强攻击手段,使各类安全威胁发生质变,包括提升攻击的智能化程度、攻击规模与效率。同时还能够模仿用户行为模式,使攻击行为更具有隐蔽性,悄然渗透至目标企业网络。
为此,企业不妨用“模法”打败“模法”,合理利用AI的力量,例如,构建AI驱动的威胁检测系统、强化数据安全“AI屏障”、建立“红蓝对抗”训练机制等。建立更为坚固的信息安全防线,确保业务连续性和数据安全。
3. 人工智能发展将严重减损企业竞争利益
AI驱动的商业模式可能通过多种方式减损企业竞争利益。在礼丰统计的人工智能相关行政执法案件中,我们认为大部分案件与AI技术本身的关联性其实并不强。但AI作为热点话题和技术工具的属性明显,也因此成为企业间进行不正当竞争的工具。
其中,最为典型与高频的行为是虚假宣传,既有在名义上“蹭”AI话题热度对自身服务内容进行虚假、夸大包装,也有利用AI工具生成不当内容进行虚假宣传以牟利。
此外,还有不少企业滥用算法干扰其他竞争者正常提供商品与服务的权利。例如,通过生成、操控虚假数据,试图干扰、控制平台算法的推荐和自动化决策机制。
还需注意的是,有案例显示,企业在明知客户侵权的情形下为其提供AI工具或相关服务,作为“侵权帮凶”也难逃处罚。
尽管当前产业还在发展变化之中,相关案例也尚未呈现爆发趋势。但通过已有案例中,我们期待看到AI技术与应用发展本身的潜力和价值,以及如何一点点渗透、影响商业市场业态的发展。
4. 人工智能发展为知识产权保护带来新挑战
礼丰统计了2023至2025年初中美AI相关知识产权诉讼,发现多集中在生成式AI领域,争议焦点主要是训练数据的版权侵权与生成内容的版权问题。具体表现为以下三大核心问题:
(1)训练数据侵权争议。实务来看,训练数据是否侵权的判断关键点在于是否构成“合理使用”。当前,中美法院在已有的司法判决中,对于“合理使用”的认定存在差异。
(2)AI生成物是否可能构成版权侵权的问题上,中国当前的司法判决倾向于认为输出物构成“实质性相似”则构成版权侵权,更进一步地,在平台责任方面,认定仅提供服务的平台方需要承担未尽合理义务的相应责任。
(3)AI生成物是否可以获得版权保护的问题是其商业利用的关键。这一问题上,中美已有的个案判决似乎呈现出截然不同的结果与思路。
在报告中,我们对相关典型案例进行了整理,并挑选典型案例及已有判决结果进行简要说明与对比。随着越来越多“第一案”“第二案”等典型案例的涌现,将一步步勾勒出问题的本来面貌和不同司法体系下选择的解决路径。
此外,我们在报告中,还进一步探讨AI工具带来的伦理问题以及对社会、国家的影响。
例如,此前一张被压废墟下的小男孩的图片被广泛传播并错误地与西藏地震关联。经核实,该图片实则由AI生成,并非真实灾情现场图片。此类虚假灾情等不当虚假内容的泛滥与传播可能被用于操控与影响社会舆论,导致社会公共秩序损害,甚至引发社会信任危机。当今时代,“有图却不一定有真相”。
AI还可能引发群体性的社会公平事件。就业歧视是常被探讨的典型场景之一;另一典型场景是金融机构利用AI工具进行信用评分,可能存在对部分地区或特点特征人群的歧视性评价,造成不公结果。
国家层面,围绕AI技术及产业生态的大国竞争也愈演愈烈,牵动着世界的目光。
如何应对AI治理新课题?
AI监管与治理正是需要有效解决对个人、企业、国家及社会的权益侵害挑战,与此同时,其面临个体与社会、发展与安全、自由与公平等多方面价值与权益的平衡。
由于AI技术的飞速发展与监管法律的滞后性,观察世界范围内对AI的治理和监管路径,不难发现AI企业自治一直在路上,企业更期待主动掌握“游戏规则”。
我们从全球AI治理相关的文件中随机抽样观察,发现了大量共识性的基本原则,但各国似乎仍在以“柔性”规则和创新监管手段(例如,监管沙盒、工具和指南等),尝试如何使这些抽象的原则转化为更为具体、实操的监管规则。
尽管全球治理存在竞争与价值观差异,但世界也在积极寻求交流与合作,共同面对这一复杂的全新挑战。
欢迎大家与我们共同开启、持续探索AI侵权挑战与治理之旅。我们也十分期待聆听各界的声音与见解。
如您对报告详情感兴趣,请联系如下邮箱:
我们将就该报告的内容举办分享活动,欢迎关注并报名活动!
活动提示
注:
【1】用户交互设计是指,用户可以在相关产品的使用界面,通过点击按钮等方式直接管理相关权限。
【2】行权联系是指,可以通过向企业给定的联系方式发送特定行权要求。此外,即使企业未有针对性告知,用户理论上可行使一般撤回权或删除权实现相应拒绝目的。
【3】在“威科先行”“北大法宝”行政处罚数据库中,我们以“算法”和“人工智能”作为关键词进行检索,发现了超1700个相关案例。其中包含了部分重叠的案例,并未做去重处理。为了深入分析这些案例,我们在尽量确保准确性、一致性的情况下,进行了人工筛选与分类,但我们的数据分析仍可能存在一定的误差。我们会在本报告相关活动中分享案例的相关发现,希望能激发更多相关行业人士的讨论与研究。
上下滑动
本文作者
主要由礼丰律师事务所合规部、知识产权部撰写。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...