国家互联网应急中心(CNCERT)监测发现,近年来,美国情报机构将网络攻击窃密的重点目标瞄准我高科技军工类的高校、科研院所及企业,试图窃取我军事领域相关的科研数据或设计、研发、制造等环节的核心生产数据等敏感信息,目标更有针对性、手法更加隐蔽,严重威胁我国防军工领域的科研生产安全甚至国家安全。自2022年西北工业大学遭受美国NSA网络攻击被曝光后,美情报机构频繁猖獗对我国防军工领域实施网络窃密攻击。在此,选取2起典型事件予以公布,为重要行业领域提供安全预警。
2024年4月24日互动易回复:网络靶场作为数字化建设过程中安全性测试的重要基础设施,在军队军工领域有着广泛应用。公司目前拥有多项相关领域的承制和质量资质,网络靶场系列产品具备对网络空间部队和信息支援部队提供产品或服务的能力,并已在国防和军队军工领域有大量网络靶场系列产品交付和项目实践,取得了客户的认可和信任,军队军工客户也是公司重要的收入来源之收起。

“AI+安全”主要包括AI赋能网络安全、AI内生安全和AI衍生安全。大模型快速发展给人们带来便利的同时,其引发的网络安全问题也值得重点关注。以ChatGPT为代表的生成式人工智能技术在网络安全领域是一把“双刃剑”,一方面,AI可以赋能网络安全,提升风险检测与防护能力;另一方面,AI的滥用将对国家、社会、公众带来负面影响,同时,AI新技术的脆弱性也使得应用自身面临安全风险。
AI在赋能传统网安产品与提升网安运营效率方面展现出极大潜力。根据Statista预测,2023至2030年全球AI安全市场规模CAGR将达27.60%,2030年市场规模将飙升至1340亿美元。AI赋能传统安全产品主要包括威胁检测产品(恶意软件检测、攻击流量检测、用户和实体行为分析、以及加密流量分析)、数据安全和防火墙等;AI大模型在网络安全运营中的产业实践,尤其是在告警降噪、攻击研判、自动响应与处置方面,展现出了显著的优势和潜力,安全运营是安全行业最需要AI深度改造的环节。
AI内生安全构筑网安新赛道,AI大模型安全监测评估产品或迎发展先机。人工智能技术的崛起依托于AI模型、AI数据以及AI承载系统。1)AI模型安全:主要包含模型训练完整性威胁、模型测试完整性威胁和鲁棒性欠缺威胁等。2)AI数据与隐私安全性:主要包括模型窃取、隐私泄露和基于梯度更新的数据泄露等威胁。3)AI系统安全性问题:主要包括硬件设备安全和系统与软件安全,AI系统安全性问题与传统计算机安全领域中的安全问题类似,威胁着AI技术的完整性、保密性、可用性。
AI衍生安全问题加剧,AI监管势在必行,建议关注深度伪造视频、图像、文本等检测产品。人工智能衍生安全指人工智能系统因其自身脆弱性被利用而引起其他领域的问题,AI衍生安全影响AI的合规使用,还涉及人身安全、隐私保护等。AI衍生安全包括:人工智能系统失误引发的安全事故、大模型广泛应用带来的滥用风险和人工智能武器研发可能引发国际军备竞赛。各国针对AI滥用情况纷纷发布相关监管政策,我国发布《生成式人工智能服务管理暂行办法》和《人工智能生成合成内容标识办法》等办法,体现了风险防范、风险应对和风险管理的基本思路。

