8月7日下午,InForSec & DataCon 2025年网络空间安全夏令营活动在西安电子科技大学南校区圆满落幕。
本次夏令营活动历时7天,自8月1日至7日,由网安国际学术论坛InForSec主办,西安电子科技大学网络与信息安全学院承办,清华大学网络和系统安全研究室、复旦大学系统软件与安全实验室、西安交通大学网络空间安全学院、山东大学网络空间安全学院、东南大学网络空间安全学院、浙江大学NESA LAB、奇安信集团、蚂蚁集团、腾讯安全应急响应中心(TSRC)、DATACON组委会、安全极客等协办,活动吸引线上线下共计100余名师生参加。
8月1-5日,夏令营“课程培训”部分邀请名校教师、企业资深研究员授课,多元化的课程安排,让学员们度过了一段充实的知识盛宴之旅,帮助学员加强了理论学习、夯实理论功底,不仅精进了AI赋能安全的实战技能,也在模拟演练中突破技术瓶颈。
8月6-7日,活动举办了主题为“AI赋能网络安全”的“导师面对面”专题学术活动,来自清华大学、浙江大学、复旦大学、西安电子科技大学、西安交通大学、山东大学、重庆大学、南京大学、暨南大学、中国科学技术大学、蚂蚁集团研究院等学术界、工业界的知名教授、学者,分享了网络安全前沿技术的发展及现状,同时介绍他们在研究过程中的心得体会和经验。
西安电子科技大学网络与信息安全学院执行院长 李晖
学术交流会上,西安电子科技大学网络与信息安全学院执行院长李晖发表致辞。他表示,人工智能技术发展,也正在深刻重塑网络安全学科的发展,重塑教育教学的新范式,它既带来了教学革新的机遇,也提出了前所未有的挑战,如何培养能驾驭AI技术的安全人才,是一个富有挑战的时代命题。培养兼具学术视野与实战能力的卓越工程师队伍,成为各大高校网安专业的共同使命。期待看到更多融合实战场景的教学模式走进课堂,更多贴近产业需求的课程体系融入培养方案,更期待前沿技术分享能成为校园常态,让同学们在拓宽学术视野的同时,锤炼实战技能、激活创新思维。
浙江大学百人计划研究员、博士生导师陈艳姣发表题为《基于隐层差异可分性的鲁棒后门检测》的报告。后门攻击是深度学习的一大安全威胁,然而现有后门检测方法易被自适应攻击所绕过。后门模型与良性模型的本质区别在于隐层激活分布差异。他们提出了一种模型隐层差异的量化指标——相对优势值,该指标的计算不依赖已知良性或后门样本,通过样本反演的方法计算后门样本与正常样本的隐层表征,在自适应后门攻击下也可鲁棒区分后门模型与正常模型。
清华大学网络研究院副教授、博士生导师邱寒发表题为《大语言模型训练数据污染与治理技术》的报告。报告从GPT-4o词表中的中文污染token出发,探索不同大语言模型词表中文token污染的情况,并探索基于词表中token分布估算语料库中token词频的方法,最后分析不同污染token在推理中异常表现的原因。
西安电子科技大学副教授、硕士生导师张肖瑜发表题为《深度学习模型安全与隐私攻防》的报告。报告将分别针对机器学习算法中的隐私性和鲁棒性两大方面进行总结和汇报。在隐私保护方面,攻击策略主要包括性质推理攻击、成员关系推理攻击、模型提取攻击、模型反演攻击;防御策略主要包括差分隐私技术、对抗机器学习方法、密码学技术和基于水印的技术。在鲁棒性方面,探讨了对抗样本攻击、投毒攻击、后门攻击及其防御技术。
复旦大学计算与智能创新学院副研究员潘旭东发表题为《前沿AI系统安全风险评测与治理》的报告。随着生成式大模型和智能体技术迅速发展,如何针对以大模型为核心的前沿AI系统开展安全风险评测与治理是全球面临的共性难题。报告围绕大模型内容安全和智能体行为安全两大核心议题,分享团队近年来在前沿AI系统安全评测与治理方面的研究进展和思考。
浙江大学软件学院特聘研究员杜天宇发表题为《可解释大模型安全与评测平台》的报告。近年来,以大模型为代表的人工智能技术迅猛发展,相关应用不断深化。在大模型蓬勃发展的同时,其安全、隐私、伦理等挑战也越来越引起人们的重视。报告围绕大模型系统安全,探讨可解释的大模型安全增强技术,并展示研制的大模型安全评测平台。
山东大学网络空间安全学院教授、博士生导师李政发表题为《JailFuzzer: 基于模糊测试和LLM Agent的文生图大模型越狱攻击框架》的报告。他提出了基于模糊测试(Fuzzing)技术和大型语言模型智能体(LLM Agent) 的自动化越狱攻击框架JailFuzzer 。实验结果表明,JailFuzzer在越狱T2I模型方面具有显著优势。它不仅能够生成自然且语义连贯的提示,降低被传统防御机制检测到的可能性,而且在越狱攻击的成功率上也远超现有方法,同时显著减少对目标系统的查询开销。
蚂蚁技术研究院研究员黄智聪发表题为《生成式大模型时代的可追溯数字水印:“生成即嵌入”框架与实证研究》的报告。报告首先回顾数字水印技术的演进,随后聚焦生成式大模型时代的新挑战:传统方案一般需要直接编辑修改内容语义。以 Text-to-Image 扩散模型为例,介绍基于噪声注入的可追溯水印,以及“生成即嵌入”的框架。
重庆大学副教授郭尚伟发表题为《多模态大模型安全测试》的报告。近年来,多模态大模型(如图文生成大模型Stable Diffusion、图文理解大模型GPT4o等)的突破性发展深刻重塑了人机协作范式,推动智能客服、跨模态内容生成等产业实现效率跃迁。报告聚焦多模态大模型安全风险,介绍团队在多模态大模型对抗攻击与自动化红队测试方面的最新工作,提升多模态大模型系统的安全性与可靠性。
南京大学计算机学院特聘研究员吴昊发表题为《大模型的"视界迷宫":漏洞检测中的注意力机制博弈》的报告。报告聚焦大模型在漏洞检测过程中暴露出的四类典型注意力机制问题,通过系统化分析与实证研究,揭示当前基于LLM的代码安全检测的局限性及潜在风险,进而提出增强上下文感知、提升注意力分布稳定性及细粒度漏洞定位能力的技术路径。旨在为构建高效、可信的大语言模型驱动自动化代码审计工具提供理论支持与实践指导。
浙江大学计算机科学与技术学院、网络空间安全学院百人计划研究员杨子祺发表题为《面向大模型的数据隐私推断攻击与防御技术研究》的报告。以大模型为代表的生成式人工智能在近年来成为人工智能领域的核心技术,推动了新一轮的技术革命。报告重点探讨大模型数据隐私安全,揭示了视觉大模型训练数据可能面临的属性存在推断攻击风险,并探讨针对数据隐私推断的防御技术。
浙江大学计算机科学与技术学院百人计划研究员赵彬彬发表题为《基于事件的固件后模糊测试故障定位分析》的报告。报告介绍了他们提出的自动化故障定位框架FirmRCA,通过在崩溃复现过程中高效捕获关键的内存访问和指令执行序列,从而精确重构数据流,并结合一套启发式排序算法,从数以万计的指令中高亮标记出与故障最为相关的根因指令。
暨南大学网络空间安全学院讲师刘逸发表题为《安全与效率并重:安全两方计算协议的设计与优化》的报告。当前的协议根据安全性主要可以分为两大类:被动安全(半诚实)协议和主动安全(恶意安全)协议。他们近期的研究尝试在这两类方案之间寻找折中,通过设计新的协议结构,在尽量接近主动安全所能提供的强安全性保障的同时,显著提升执行效率。
西安交通大学助理教授、硕士生导师杜林康发表题为《面向机器学习模型的训练数据侵权检测与确权方法研究》的报告。在机器学习技术快速发展的背景下,海量数据作为模型训练的基础资源,为机器学习模型赋予了强大的推理能力和广阔的应用前景。在报告中,他介绍了训练数据侵权检测和确权的研究背景、问题定义以及现有方法,并分享在扩散模型和离线强化学习模型的研究成果。
中国科学技术大学网络空间安全学院在读博士齐培贵发表题为《大模型内容安全:从文本到多模态的检测与防御体系》的报告。报告聚焦人工智能大模型安全领域的前沿研究,系统性地介绍了从文本到多模态的不安全内容检测与防御体系。在语言模型方面,聚焦于有害文本生成问题,提出了创新的评估和缓解框架,致力于构建更加安全可靠的语言模型生态。
More
在圆桌讨论环节,嘉宾们探讨了AI安全前沿技术创新与AI治理的挑战,分享了各自在求学、研究以及留学经历中所遇到的挑战,做出的选择,以及克服困难与挑战的经验,与会师生纷纷就研究进程、研究方向中的困惑进行了深入的交流。
在结营仪式上,西安电子科技大学网络与信息安全学院副院长李兴华和复旦大学教授张源为学员颁发了结业证书,预祝他们未来在网络安全领域有更大的发展。
在课程学习之外,学员们还前往西安电子科技大学科学成果展示中心(以下简称“中心”)参观。中心主要展示“十二五”以来,学校面向国家、行业重大需求的关键问题和前沿科技,在通信、雷达、计算机、电子机械、天线、微电子等重点领域取得的重大科研成果和突破进展,反映学校为担当科技自立自强使命、打造国家战略科技力量、建设科技强国贡献的西电智慧和西电力量。
七天的InForSec夏令营旅程让学员们在收获知识的同时,也结识到了更多志同道合的伙伴,学员们对此次夏令营给予了高度评价和积极的反馈,纷纷表示收获良多。
结营不是分离,下个夏天,我们再会!
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...