GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1. VULPO:基于策略内LLM优化的上下文感知漏洞检测
简介:开源软件的广泛应用大幅增加了漏洞利用风险,凸显了对高效、可扩展漏洞检测(VD)方案的迫切需求。现有漏洞检测技术(无论是传统基于机器学习的方法,还是基于大语言模型(LLM)的提示工程、有监督微调、离线策略偏好优化等方案),在上下文感知分析能力上存在根本性局限:它们依赖固定输入或静态偏好数据集,无法自适应探索仓库级依赖关系,且受限于函数级基准测试 —— 这类测试往往忽略关键的漏洞上下文信息。
本文提出一种面向上下文感知漏洞检测的在策略大语言模型强化学习框架 —— 漏洞自适应策略优化(VULPO)。为支撑模型训练与评估,研究者首先构建了新型数据集 ContextVul:该数据集以高质量函数级样本为基础,通过轻量化方法提取仓库级上下文信息进行增强。其次,研究者设计了多维度奖励结构,该结构同时捕捉预测准确性、漏洞定位精度及漏洞分析的语义相关性,进而引导模型实现全面的上下文推理。针对不同漏洞场景的难度非对称性问题,并为缓解奖励攻击(reward hacking)现象,VULPO 框架融入了标签级与样本级的难度自适应奖励缩放机制,在引导模型探索高难度场景的同时,确保奖励分布的均衡性。大量实验验证了 VULPO 框架在上下文感知漏洞检测任务中的显著优势:基于 40 亿参数的 VULPO-4B 模型,其性能大幅超越现有基于提示工程和离线策略优化的漏洞检测基准模型 —— 相较于 Qwen3-4B 模型,F1 分数提升 85%,且性能可与规模大 150 倍的 DeepSeek-R1-0528 模型相媲美。
链接:
https://arxiv.org/abs/2511.11896
2. 基于LLM的量化框架用于评估OSS供应链中高隐蔽性后门风险
简介:在现代软件开发流程中,开源软件供应链为高效便捷的工程实践提供了重要支撑。随着系统复杂度的持续提升,将开源软件作为第三方依赖已成为行业普遍做法。然而,底层依赖维护缺失、社区审计不足等问题,给源代码安全保障及仓库维护者合法性验证带来了严峻挑战 —— 尤其是在以 XZ-Util 事件为典型代表的高隐蔽性后门攻击场景下。针对上述问题,本文提出一种面向开源软件后门风险评估的细粒度项目评估框架。该框架从攻击者视角对隐蔽性后门攻击进行建模,并为每个攻击阶段定义了针对性指标。此外,为解决静态分析在评估仓库维护活动可靠性(如提交者权限异常提升、代码审核参与度不足等)时存在的局限性,该框架引入大语言模型(LLMs)对代码仓库进行语义评估,无需依赖手动编写的规则模式。研究者在 Debian 生态系统的 66 个高优先级软件包上对该框架进行了验证,实验结果表明,当前开源软件供应链正面临多种安全风险。
链接:
https://arxiv.org/abs/2511.13341
3. 隐藏在人工智能流量中:利用MCP进行LLM驱动的智能体红队演练
简介:生成式人工智能正重塑攻击性网络安全领域 —— 其赋能的自主红队代理能够在渗透测试过程中自主规划、执行与适配。然而,现有方案在通用性与专业性之间存在权衡困境,且实际部署中暴露出幻觉现象、上下文局限及伦理争议等挑战。本文提出一种基于模型上下文协议(MCP)的新型指挥控制(C2)架构,可在网络中隐蔽协调分布式、自适应侦察代理。值得注意的是,该架构不仅提升了系统整体的目标导向性行为,更彻底消除了可被用于检测和阻断指挥控制行为的关键主机与网络痕迹。
研究者首先全面综述了当前主流的生成式红队技术 —— 从微调专业模型到模块化或智能体框架,分析了它们在自动化能力与任务特定准确性方面的表现。随后详细阐述了基于 MCP 的指挥控制架构如何突破现有局限:通过支持异步并行操作与实时情报共享,无需周期性信标传输即可实现高效协同。研究者进而探讨了该架构的高级对抗能力、检测规避技术,并针对其双重用途的伦理影响提出应对方案 —— 包括在实验室环境中实施防御措施与受控评估。与传统指挥控制架构的实验对比表明,该方案大幅降低了人工投入与检测痕迹。最后,研究者总结了未来研究方向,包括融合自主漏洞利用、防御性大语言模型代理、预测性规避策略及多智能体集群技术。
所提出的 MCP 赋能型指挥控制框架,标志着 AI 驱动红队操作向实战化迈出重要一步:其能够模拟高级持续性威胁(APT),同时为下一代防御系统的研发提供关键参考。
链接:
https://arxiv.org/abs/2511.15998
4. 基于大语言模型的深度强化学习驱动的自主网络防御奖励设计
简介:在复杂动态的环境中,为自主网络攻防学习智能体设计奖励机制,对领域专家而言是一项极具挑战性的任务。本文提出一种基于大语言模型(LLM)的奖励设计方法,旨在深度强化学习(DRL)驱动的实验模拟环境中生成自主网络防御策略。研究者构建了多种攻防智能体角色,这些角色体现了智能体行为的异质性;在此基础上,研究者先向大语言模型提供网络模拟环境的上下文信息,进而生成由其引导的奖励设计方案。随后,这些奖励结构被应用于深度强化学习驱动的攻防模拟环境中,用于学习集成网络防御策略。实验结果表明,大语言模型引导的奖励设计能够生成针对多样化对抗行为的有效防御策略。
链接:
https://arxiv.org/abs/2511.16483
5. 基于大语言模型的网络钓鱼邮件检测可信度校准框架
简介:钓鱼邮件始终是网络通信领域的持续性挑战 —— 其利用人类信任心理,通过逼真的语言表达和自适应策略规避自动化过滤器。尽管 GPT-4、LLaMA-3-8B 等大语言模型(LLM)在文本分类任务中展现出优异的准确率,但在安全系统中部署此类模型时,需超越基准测试性能评估其可靠性。为此,本研究提出一种可复现的评估方法 —— 可信度校准框架(TCF),从校准度、一致性与稳健性三个维度对钓鱼邮件检测模型进行综合评估。该框架将上述三维度指标整合为一个有界指数(可信度校准指数 TCI),并补充跨数据集稳定性(CDS)指标,用于量化模型可信度在不同数据集间的稳定性。
本研究基于 SecureMail 2025、Phishing Validation 2024、CSDMC2010、Enron-Spam 及 Nazario 五大语料库,采用 DeBERTa-v3-base、LLaMA-3-8B 与 GPT-4 三种模型开展实验。结果表明,GPT-4 模型的整体可信度表现最优,LLaMA-3-8B 与 DeBERTa-v3-base 依次紧随其后。统计分析证实,模型可靠性与原始准确率呈独立分布 —— 这一发现凸显了在实际部署场景中,开展 “可信度感知型评估” 的重要性。所提出的 TCF 框架为评估基于大语言模型的钓鱼邮件检测系统可靠性,奠定了透明、可复现的方法论基础。
链接:
https://arxiv.org/abs/2511.04728
6. 利用大语言模型解释软件漏洞
简介:安全漏洞的普遍存在促使企业采用静态应用安全测试(SAST)工具开展漏洞检测工作。然而,这类工具往往存在可用性局限 —— 其通用化的警告信息无法向开发者充分传递关键信息,导致开发者对重要检测结果产生误解或遗漏。鉴于大语言模型(LLMs)的最新发展及其文本生成能力,本研究探索了一种混合方法,利用 LLMs 解决 SAST 工具的可解释性难题。本文提出一款集成开发环境(IDE)插件 SAFE,该插件基于 GPT-4o 模型,能够对 SAST 工具检测到的漏洞,从成因、影响及缓解策略三个维度进行解释说明。专家用户研究结果表明,SAFE 生成的解释内容可显著帮助初中级开发者理解并处理安全漏洞,进而提升 SAST 工具的整体可用性。
链接:
https://arxiv.org/abs/2511.04179
7. 让蜂群定位薄弱点:大语言模型多轮越狱攻击的路径规划视角研究
简介:大语言模型(LLMs)已在各类应用中广泛部署,但其潜在的安全与伦理风险引发了日益广泛的关注。现有研究多采用红队评估方法,通过多轮越狱攻击(jailbreaks)识别大语言模型中的潜在漏洞。然而,这些方法往往缺乏对攻击空间内有效对话轨迹的探索,且忽视了攻击过程中产生的可观开销。针对这些局限,本文首先提出一种基于动态加权图拓扑结构的理论模型,将多轮攻击过程抽象为路径规划问题。基于该框架,研究者设计了一种用于多轮越狱攻击的增强型人工蜂群算法(ABC)—— 该算法通过雇佣蜂、观察蜂与侦察蜂的协同搜索机制,显著提升了最优攻击路径的搜索效率,同时大幅减少了所需的平均查询次数。
研究者在三个开源语言模型与两个专有语言模型上开展实证评估,结果验证了所提方法的有效性:其攻击成功率全面达到 90% 以上,在 GPT-3.5-Turbo 模型上的峰值达 98%,性能显著优于现有基准方法。此外,该方法平均仅需 26 次查询即可实现相当的攻击成功率,大幅降低了红队评估的执行开销,凸显了其卓越的效率优势。
链接:
https://arxiv.org/abs/2511.03271
-End-
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……




还没有评论,来说两句吧...