无视任何杀毒软件!世界上第一个 CPU 级勒索病毒:可直接攻击处理器 控制 BIOS
世界上第一个 CPU 级勒索 病毒已经出现,但好在并未对外发布。
美国知名安全风险信息解决方案提供商 Rapid7 威胁分析高级总监 Chrstiaan Beek,编写了全球第一个 CPU 级勒索软件的概念验证代码。该代码可以直接攻击 CPU,控制 BIOS,直到你支付赎金为止。
据悉,这种攻击可以绕过大多数传统的勒索软件检测方式。
在接受 The Register 采访时,Beek 透露,AMD Zen 芯片的一个漏洞让他意识到,一个技术娴熟的攻击者理论上可以 " 允许入侵者将未经批准的微代码加载到处理器中,破解硬件级别的加密,并随意修改 CPU 行为 "。
谷歌安全团队此前已发现 AMD Zen 1 至 Zen 4 CPU 中存在一个安全漏洞,该漏洞允许用户加载未签名的微码补丁。
后来发现,AMD Zen 5 CPU 也受到该漏洞的影响。值得庆幸的是,这个问题可以通过新的微码修复,就像之前的 Raptor Lake 不稳定问题一样。
然而,Beek 看到了机会。" 我有固件安全方面的工作经验,所以当时我就想,哇,我想我可以编写一些 CPU 勒索软件了。"
而他也确实这么做了。
据报道,Beek 确实编写了可隐藏在 CPU 中的勒索软件的概念验证代码。令人欣慰的是,他承诺不会将其发布出去。
Beek 还提到了 Conti 勒索软件团伙于 2022 年曝光的泄露评论。在 RSAC 的一次演讲中,他重点介绍了该团伙的聊天记录。
" 我正在开发一个 PoC,勒索软件会自行安装在 UEFI 中,因此即使重新安装 Windows,加密仍然有效," 其中一条记录写道。
另一条记录指出,使用修改后的 UEFI 固件," 我们甚至可以在操作系统加载之前触发加密。任何杀毒软件都无法检测到这一点。"
那么结果如何呢?一位黑客假设:" 想象一下,我们控制了 BIOS,并加载我们自己的引导程序,它会锁定驱动器,直到支付赎金为止。"
生成式AI安全防护:数据泄露风险的缓解策略
生成式AI系统不断扩大的攻击面
模型记忆效应:ChatGPT等大语言模型(LLM)会逐字复现训练数据中的个人身份信息(PII)或知识产权内容。Netskope 2024年研究显示,46%的GenAI数据违规事件涉及向公共模型分享专有源代码 员工不当使用:LayerX调查发现6%的员工会定期向GenAI工具粘贴敏感数据 提示词注入攻击:恶意攻击者通过精心设计的输入诱导模型泄露训练数据 跨境数据流动:Gartner预测到2027年,40%的AI相关数据泄露将源于跨国GenAI使用不当
技术防护:从差分隐私到安全计算
差分隐私(DP):通过向训练数据注入校准噪声,有效防止模型记忆个体记录。微软在文本生成模型中的实践表明,DP可在保持98%实用性的同时降低83%的PII泄露风险 联邦学习架构:医疗和金融领域采用这种去中心化训练方式,使机构间无需共享原始数据即可协作学习。NTT Data试验显示,联邦系统比集中式方案减少72%的数据暴露面 安全多方计算(SMPC):ArXiv提出的分布式GenAI框架采用这种军用级加密技术,将模型拆分至多个节点,确保任何单方都无法获取完整数据或算法。早期采用者报告其准确率比传统模型提升5-10%,同时消除集中式泄露风险
组织策略:创新与风险管理的平衡
数据清洗管道:AI驱动的匿名化处理可清除训练语料库中98.7%的PII 跨部门审查委员会:使财富500强企业不当数据共享减少64% 持续模型审计:在部署前检测89%的潜在泄露途径
监管态势与未来方向
欧盟AI法案:要求面向公众的模型必须实施DP 美国NIST指南:规定联邦AI系统需采用联邦学习架构 ISO/IEC 5338标准:计划到2026年完成23个安全维度的GenAI合规认证
同态加密:IBM原型显示完全私密模型推理速度提升37倍 神经形态芯片:内置DP电路可降低89%隐私开销 区块链溯源:提供不可篡改的模型 provenance 记录
声明:除发布的文章无法追溯到作者并获得授权外,我们均会注明作者和文章来源。如涉及版权问题请及时联系我们,我们会在第一时间删改,谢谢!文章来源:黑白之道、FreeBuf、参考来源:
Securing Generative AI – Mitigating Data Leakage Riskshttps://cybersecuritynews.com/mitigating-data-leakage-risks/
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...