01
行业动态
当前,人工智能正在以空前速度深度融入社会结构,同时也引发了一场深刻的信任危机。近日发表的《在人工智能时代呼吁跨学科信任研究》一文指出,科学家与社会利益相关方(如政策制定者、开发者和公众)之间仍缺乏深度协作,真正意义上的“跨学科”整合尚未实现。为此,该研究系统提出了一个全新的跨学科研究框架,旨在弥合科学研究与社会实践之间的断层,为应对如信息茧房、歧视与战争等重大挑战、重建人工智能时代的社会信任,提供理论支撑与实践路径。
参考来源:启元洞见
https://mp.weixin.qq.com/s/PO-pwI3jnE0a-9jCQtHUlw
热评时刻:
文章提到的深度伪造、算法偏见、自主武器等风险,正是当前网络安全领域面临的现实威胁。特别是AI系统"黑箱"特性导致的可解释性缺失,不仅影响用户信任,更为网络攻击者提供了可乘之机。从入侵检测的误报漏报,到自动化响应的过度反应,每一个环节都考验着运营团队对AI工具的信任度。文章提出的跨学科框架具有重要的实践价值,特别是将用户置于中心的设计理念,这与中国电信主张的"智惠"企业战略高度契合。从网络安全运营实践角度看,构建AI信任不能仅停留在理论层面,更需要建立可量化、可验证、可审计的信任指标体系。通过实时监控机制动态评估AI系统的可靠性,根据威胁态势和系统表现灵活调整信任阈值,才能真正实现在提升运营效率的同时确保安全底线不被突破。
—— 电信安全专家 郝逸航
国内外安全事件
不让科技“偷走”隐私!网警发布AI伪造、智能设备风险防范指南
刷脸支付、AI视频、智能管家……科技让生活更便利,但也带来了新的隐私“陷阱”。AI伪造身份诈骗、智能设备“偷听”事件,个人信息安全正面临前所未有的挑战。提升防范意识是保护个人信息安全的第一道防线!
参考来源:公安部网安局
https://mp.weixin.qq.com/s/lRI9BWRPE_DgPKMazgEY3w
热评时刻:
在AI发展迅速的当下,AI给生活和工作带来了很多便利性,同时也带来了很多安全隐患。AI深度伪造诈骗和智能设备隐私泄露,已经成为一种新型的诈骗及隐私获取手段。文章提供了多种防范的手段和措施,例如:针对AI换脸,提出“转头”“遮脸”等动作验证法,科学利用了当前技术的弱点;强调“多渠道核实”为铁律,直击诈骗要害。对于智能设备,提出的“物理开关”“强密码”“权限最小化”均为安全防护的黄金准则。这些手段能有效帮助我们规避AI带来的安全风险,值得所有人关注学习。
——电信安全专家 李亚
前沿技术
提示词中间人攻击:威胁ChatGPT等AI系统的隐形威胁
网络安全领域正面临一种新型威胁的警示——“提示词中间人攻击”,这种攻击能够危害用户与主流生成式人工智能工具的交互,包括ChatGPT、Gemini、Copilot和Claude等。最令人担忧的是,这种攻击甚至不需要复杂的技术手段,仅需一个浏览器扩展即可实施。
参考来源:FreeBuf
https://www.freebuf.com/articles/ai-security/444618.html
热评时刻:
文章中LayerX提到的“提示词中间人攻击”指浏览器里任何一个普通扩展都能在用户毫无察觉的情况下,拦截并篡改发往大模型的提示词,借此注入隐藏指令、操控模型行为,伪造看似正常的回复以掩盖痕迹。由于攻击发生在浏览器端、提示词离开发送终端之前,传统依赖服务器侧防火墙、网关的安全堆栈统统失效;而 LayerX 调研显示 99 % 的企业终端已安装至少一个扩展,风险面巨大。对企业而言,若员工将源代码、财务报表或客户数据直接粘贴进 AI 对话框,恶意扩展即可批量外泄;对个人用户,会话历史、身份令牌乃至隐私提问也可能被泄露。目前个人用户可以采取定期清理扩展、限制权限等手段,企业用户则可通过禁用非必要扩展、隔离AI工具、采用运行时监控和提示词签名等技术手段来降低风险。随着AI深度融入工作流,此类攻击将成为LLM安全的核心威胁之一,需从模型、服务器、前端界面等多层面构建防御体系,推动如“来源标注”“提示词注入测试”等安全机制的标准化和普及。
——电信安全专家 李昀驰
版权声明:转载及点评的所有文章、图片、音视频文件等资料的版权归版权所有权人所有。此篇采用的文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件通知我们以便迅速采取适当措施避免风险。联系邮箱:[email protected]
排版:武云龙
校对:李雪、陈师慧
执行主编:田金英
主编:冯晓冬
内容整理:市场经营部
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...