AI赋能,传统网络安全、
AI内生安全
AI衍生安全。
其中,
AI内生安全,市场规模 150亿,被认为是最具市场空间和发展潜力的领域,
主要涵盖:AI大模型自身安全问题、数据安全隐私问题,系统安全风险;
AI赋能,传统网络安全市场规模 70亿,天花板较低;
AI衍生安全,对应AI监管产品,具有较大增长潜力,
主要解决,AI滥用,导致的伪造音频、图像、视频等风险。
AI安全,整体市场规模预测:
2023年,我国~网络安全市场 700亿元(+9.64%)
2019~2023年,cagr = 10%,增速较此前显著放缓。
预计,2030年,AI安全市场规模 1340亿美元,2023~2030年,cagr = 27.6%
单独衡量AI安全部分,
2023年,传统网络安全市场 700亿为基础,
按当前AI安全产品约10%的渗透率测算,对应市场规模约70亿。
传统网络安全,定义为保护网络系统硬件、软件及信息,确保系统连续可靠运行、服务不中断。随着互联网、物联网、AI等技术发展,网络概念向云、终端衍生,网络安全演变为网络空间安全。
驱动因素:
政策合规(如网络安全法、等保2.0)、事件驱动(如微软蓝屏事件)及需求侧从政策驱动向内生需求转换(企业意识到数据资产保护重要性,避免购买无用产品)。
行业画像与竞争格局:
政府、教育、医疗三大行业,占据网络安全市场约 50% 份额,
其中,政府占比近30%,但受财政预算及医疗反腐影响,相关业务面临压力。
竞争格局呈现强者恒强,【奇安信】、绿盟、【深信服】等传统网络安全企业优势显著。
今年上半年,我国有17家企业发布安全大模型,占全球43.6%,
60%厂商将安全大模型作为基底,威胁检测是安全大模型应用率最高的场景,达24.6%,
其次是安全运营、安全开发及渗透挖掘。 安全大模型一体机产品类型与厂商:
安全大模型一体机主要有两类,
1·,具备丰富安全防护能力的大模型一体机,可满足本地化应用需求,提供网络边界安全防护等多种能力,
代表厂商:【深信服】等;
2,深度融合垂直大模型能力的安全产品,以软硬件一体机形式销售,满足智能化安全功能需求,
代表厂商:【安恒信息】、智能科技、太阳线科技等。
深信服:
安全GPT已发展到第四代,在某用户推广演练现场,1小时内极限研判1.7万条报警,按人员一分钟研判一条计算,相当于两百多名安全值守人员同时工作的效率;同时发布操作系统一体机。
【奇安信】:
发布工业级GPT安全机器人,单位时间工作效率是安全专员的16倍,可7×24×365全天候工作,一台机器人效率约等于70个安全专员。
某科技公司:
基于自研分布式大模型上线相关产品,AIGC对医院安全无人机能实现异常检测与响应时间提升50%以上,70%以上警告能实现自动化,帮助AIGC判别的准确率达到2.8倍。 AI与传统网络安全方法的区别及优势:传统方法依赖已知威胁及签名检测,AI智能网络安全产品可实时检测用户行为、位置等,发现未知威胁,基于以往威胁积累预测未来威胁。其优势包括提升安全分析师工作效率、提高网络安全防御准确性、实现组织网络操作的工作点检测效率和检测能力及扩展性,如AI+EDR产品可接入安全终端进行实时响应。
AI内生安全源于AI模型、数据和承载系统,衍生出合规风险,包括AI大模型自身安全性问题、AI数据问题及系统安全风险。
2023年,大型企业AI安全支出占安全预算比例提升至2%左右,按当年传统网络安全700亿市场规模测算,AI内生安全市场规模 140~150亿元。
主要风险类型:
模型安全:包含模型训练完整性威胁(如数据投毒、后门攻击)、模型测试完整性威胁(如对抗攻击、伪造攻击)及可用性限制风险。数据投毒是攻击者添加中毒样本到训练集,破坏模型可用性和完整性;后门攻击是在神经网络植入后门获取非法能力;对抗攻击通过添加细微干扰使模型预测错误;伪造攻击向生物识别系统提供伪造信息。
数据与隐私安全:主要包括模型窃取(免授权窃取黑盒模型参数或功能)、隐私泄露(训练模型的隐私数据泄露)及基于数据驱动更新导致的数据泄露等问题。
AI系统安全:主要涉及底层设备安全和系统支持,与传统计算机安全领域问题类似,涉及用户保密性、可用性等。 参与厂商:头部厂商包括标贝、企鹅、密码等,同时互联网大厂因自身开展基础大模型业务,亲自下场培养安全团队进行安全验证,可能减少外部采购。
AI衍生安全主要指AI滥用导致的风险,包括人工智能系统自主引发安全事故(如具备行为能力和破坏力的机器人威胁人类)、大模型广泛应用带来的滥用风险(如生成伪造音频、图像、视频用于敲诈勒索,引发社会秩序动荡)及人工智能引擎研发相关的军费计算等问题。 国际监管动态:
欧盟:
以统一立法为主,2021年4月提出《欧盟人工智能法案》,2024年3月正式通过,为首个欧盟人工智能法案,严格列出对人体安全造成不可接受风险的系统清单,于今年8月正式生效。
美国:
采取联邦+州多层立法制度,强调安全原则,鼓励企业自律。2024年11月发布关于安全可靠和可信开发使用人工智能的行政命令,首次确立联邦层面AI监管框架;各州差异化探索,如科罗拉多州要求AI系统透明性、算法决策提供逻辑依据,侧重消费者保护,要求标识AI生成内容并设立赔偿机制。
国内监管动态:
2023年7月发布《生成式人工智能服务管理暂行办法》,于当年8月15日执行,强调落地可执行性及风险防范;今年国家互联网信息办公室等部门联合发布《人工智能生成合成内容标识规范》,自9月1日起实行,进一步规范AI生成合成内容标识活动。 AI监管技术进展:
国外:
推出AIC检测工具,通过分析人类写作和AI生成内容特征,识别文本是否为AI生成,如基于先进自然语言处理技术和分布式学习模型的检测工具,可检测GPT3、GPT4、BERT等生成的文本。
国内:
国投智能推出美亚物流检测平台(应为“美亚柏科检测平台”,根据上下文修正),基于AI协同多模态分子技术,已上线微信小程序,支持上传图片、视频、文档检测真伪,未来有望与互联网大厂合作接入写作或短视频平台;腾讯发布AI大模型检测系统,可快速识别AI生成的图像、文本和视频并测算AIID;知网有AIDC检测工具,可识别AI生成文本特征并提供检测报告。
重仓:【启明星辰】【天融信】【奇安信】【安恒信息】
持股:【深信服】【迪普科技】【山石网科】【盛邦安全】
没有找到网络安全的ETF,我自己配了一个。
$奇安信-U(SH688561)$ $深信服(SZ300454)$ $安恒信息(SH688023)$