一、院士观点解读与国产算力发展趋势
1.1 钱德沛院士关于"任督二脉"的核心观点
中国科学院院士钱德沛在郑州国家超算互联网核心节点上线仪式上提出了一个具有深远意义的观点:算力不是简单的堆芯片,更不是各地盲目建数据中心。过去我们可能过于关注"算力峰值"这个数字,但未来的关键是"算力效用"。这一观点直指当前AI发展的核心痛点:一边是很多高校、创业公司"一卡难求",做不了大模型训练;另一边可能有些地方的算力中心利用率并不高,资源是割裂的,需求是错配的。
钱德沛院士形象地将这一问题比喻为"血脉不通",即虽然拥有最聪明的大脑(AI模型)和一颗强壮的心脏(芯片),但血脉不通,整个身体还是动不起来,效率低下。他认为,解决这一"血脉不通"问题的关键在于国家超算互联网,这不仅仅是一个工程,而是一套全新的体系,其目标是把散落在全国各地不同类型、不同归属的算力中心,不管是智算中心还是云数据中心,通过统一的网络和调度平台"连"起来。
在技术路径上,钱德沛院士提出了以"两个融合"促进算力发展的系统性思路:智算融合双向赋能、面向领域通专结合、关键技术另辟蹊径、实行敏捷自动设计验证、软硬协同优化系统、通过模式创新普及应用 。他特别强调,算网融合塑造了今日的算力基础设施格局,而算智融合将定义未来计算,行业应建设一个具有高度内在智能、提供强大算力、渗透全社会、承载各领域应用的算力网络,支撑国家的创新发展。
1.2 国产算力发展的关键趋势
根据中国信通院和IDC等权威机构的最新研究报告,国产算力发展呈现出以下关键趋势:
算力规模持续高速增长。根据IDC与浪潮信息联合发布的《2025年中国人工智能计算力发展评估报告》,2025年中国智能算力规模将达到1037.3EFLOPS,较2024年增长43%;2026年将达到1460.3EFLOPS,为2024年的两倍;2028年将达到2781.9EFLOPS 。2023-2028年中国智能算力规模的五年年复合增长率预计达46.2%,远高于通用算力的18.8% 。
算力结构向"智算主导、多元协调发展"转型。中国信通院发布的《综合算力指数蓝皮书(2025年)》显示,随着智算规模显著提升,算力展现"智算主导、多元协调发展"的特征;算力技术创新与人工智能技术深度融合,在自然语言处理、图像识别、语音识别等领域取得突破性进展 。
国产算力自主化程度不断提升。IDC发布的2024年中国服务器市场报告显示,自主算力鲲鹏系服务器市场份额占比已达20%以上,覆盖了金融、运营商、政府、互联网等核心场景 。截至2024年底,我国算力总规模达到280EFLOPS,存力总规模约1580EB,其中先进存储容量占比超过28% 。
超算互联网建设加速推进。根据工业和信息化部印发的《算力互联互通行动计划》,到2026年,我国将建立较为完备的算力互联互通标准、标识和规则体系;到2028年,要基本实现全国公共算力标准化互联,逐步形成具备智能感知、实时发现、随需获取的算力互联网 。
1.3 国家超算互联网对AI发展的战略意义
国家超算互联网的建设对中国AI发展具有重大战略意义,主要体现在以下几个方面:
打破算力资源孤岛,实现算力普惠。国家超算互联网通过统一的网络和调度平台,将散落在全国各地的算力中心连接起来,形成一个可以灵活调配、统一服务的"算力池"。这意味着一个在深圳的AI创业团队需要训练一个模型时,不需要自己投巨资建机房,可以通过这个"算力网"透明地、一站式地调度到郑州、贵州或者内蒙古的闲置算力资源,让资源利用最大化,让创新的门槛降到最低。
支撑大规模AI应用和科学研究。国家超算互联网核心节点配备了强大的国产万卡超集群,可为万亿参数模型训练、高通量推理、AI for Science等大规模计算场景提供坚实、安全、普惠的算力基座 。例如,郑州核心节点由中科曙光提供的3套scaleX万卡超集群系统作为核心算力支撑,可对外提供超3万卡的国产AI算力,是全国首个实现3万卡部署并实际投入运营的最大国产AI算力池 。
推动算力产业生态协同发展。超算互联网代表的是一条"基建先行+生态开源+全场景适配"的中国式算力发展路径,不同于美国"芯片堆砌+闭源垄断"的封闭路线,是具有中国特色的算力发展模式 。通过连接产业生态中的算力供给、应用开发、运营服务、用户等各方能力和资源,并以互联网的思维运营超算中心,构建一体化的超算算力网络和服务平台 。
促进AI技术创新和产业升级。算力正以前所未有的广度与深度,重构产业逻辑、重塑创新范式。谁能在"AI+制造""AI+能源""AI+医疗"等场景中率先实现技术落地与应用价值,谁就将在未来十年乃至更长时间内掌握发展主动权。国家超算互联网为这种技术创新和产业升级提供了强大的基础设施支撑。
二、第四范式在国产算力生态中的战略定位
2.1 第四范式技术栈与国产算力的适配情况
第四范式在国产算力生态中构建了完整的技术栈,形成了"软件定义算力"的核心战略。公司推出的信创模盒ModelHub XC已实现对国内主流AI芯片的规模化适配,包括华为昇腾910B系列、寒武纪MLU系列、天数智芯智铠100、沐曦曦云C500、海光K100AI、昆仑芯、摩尔线程全功能GPU等 。
在技术架构层面,第四范式开创性地发布了专门适配信创算力的AI引擎体系EngineX,通过基础算法架构适配,驱动批量化模型支持。这解决了国产信创芯片在AI模型兼容性和支持数量上的长期瓶颈问题,极大缩短了模型在国产算力平台的部署周期,实现"引擎驱动、多模型即插即用" 。
第四范式还推出了"Virtual VRAM"虚拟显存扩展卡,单卡显存可扩展至256GB,无需更换硬件即可突破显存限制,支持大规模AI任务。同时,公司通过HAMi vGPU社区优化资源调度,提升GPU利用率,结合先知平台,为金融、能源等领域提供业务导向的推理服务 。
在投资布局方面,第四范式深入投资发展国产算力,持有国产GPU厂商杭州曦望芯科智能科技有限公司超过9%的股份,也通过旗下基金战略投资了另一家国产GPU厂商上海天数智芯半导体股份有限公司。这种"投资+技术适配"的双重布局,强化了公司在国产算力生态中的地位。
2.2 第四范式与华为昇腾等主流算力平台的合作关系
第四范式与华为昇腾建立了深度战略合作关系,是华为昇腾最高级别生态伙伴 。双方联合推出了SageOne IA一体机解决方案,该方案实现了从芯片、框架到服务的全链路国产化,在支持DeepSeek V3/R1、QWen2.5、LLama3.3等主流大模型的基础上,企业可灵活在满血版和多个蒸馏模型之间切换 。
SageOne IA一体机集成了智能算力池化技术(vGPU)、大模型应用开发平台,以及开箱即用的AI应用套件。通过采用第四范式独创的vGPU资源池化技术,实现了三大革新:GPU利用率提升30%以上,推理性能平均提升5-10倍,单机多任务处理效率提升3倍,并具备千卡级集群管理能力 。
在2025年11月华为发布Flex:ai技术后,该技术对第四范式的发展提供了全方位支持,特别是在算力管理、成本控制和模型开发效率方面带来显著提升。Flex:ai技术同时支持英伟达、昇腾及其他国产芯片,完美契合第四范式多算力战略,助力其已布局的华为昇腾、寒武纪、天数智芯等国产算力生态整合 。
除了与华为的合作,第四范式还与其他主流算力厂商建立了广泛的合作关系。在信创模盒ModelHub XC的发布仪式上,华为昇腾、壁仞科技、天数智芯、昆仑芯、摩尔线程和曦望等头部芯片厂商与客户伙伴中车信息共同见证了平台上线 。这种开放式的合作模式,使第四范式能够构建覆盖多厂商的算力生态体系。
2.3 第四范式在信创生态中的角色定位
第四范式在信创生态中扮演着"AI基础设施即服务"提供商的关键角色。公司通过"AI Agent+世界模型"为核心引擎,加速推进"AI基础设施即服务"的战略落地,为千行万业的智能化跃迁构筑坚实底座。
在具体定位上,第四范式是"企业智能生产力的转化者",而非简单的"AI时代的基础设施提供商"。这一定位使其与BAT等云厂商形成了"互补而非竞争"的产业格局。BAT等云厂商的核心定位是提供底层基础设施,而第四范式则聚焦"垂直价值创造",以先知AIOS平台为核心,深耕金融、能源、交通等14个重点行业,核心任务是将企业的行业数据转化为可落地的决策智能 。
在信创业务发展方面,第四范式取得了显著成果。根据公司2025年上半年财报,信创业务收入占比已达45%,构成其营收增长的核心引擎 。公司通过"范生态"战略联动华为、金蝶等伙伴,构建覆盖20多个行业的合作网络,借助ModelHub XC信创模盒适配7类国产芯片,形成"数据-模型-应用"的生态闭环,在信创AI领域卡位优势显著 。
第四范式的信创模盒ModelHub XC定位为"信创版Hugging Face",且不仅做搬运,还做适配。目前已适配超1万个模型,目标年内突破10万,正在填补国产算力"有芯无魂"的空白,让开发者能用国产卡跑起主流模型,这是国家战略层面的刚需,也是巨大的政策红利入口 。
三、信创模盒ModelHub XC的深度分析
3.1 信创模盒ModelHub XC的技术架构与功能特性
信创模盒ModelHub XC是第四范式推出的专门适配信创算力的AI模型平台,采用"平台+社区+服务"三位一体的生态化基础设施架构。该平台的核心创新在于其AI引擎体系EngineX,通过基础算法架构适配,驱动批量化模型支持,实现了"引擎驱动、多模型即插即用"的技术突破 。
在技术架构方面,信创模盒构建了完整的适配体系,覆盖多种模型架构和任务类型:
自然语言处理领域,支持Transformers架构,包括EngineX-vllm(文本生成)、EngineX-translation(翻译)等引擎,适配Llama、DeepSeek、ChatGLM、mBART-50等主流模型。
语音处理领域,支持Transformers+Diffusion混合架构,包括EngineX-asr(语音识别)、EngineX-tts(语音合成)等引擎,适配Whisper、SenseVoice、F5-TTS、Kokoro等模型。
多模态处理领域,同样支持Transformers+Diffusion架构,包括EngineX-diffusers(文生图)、EngineX-vl(视觉多模态理解)等引擎,适配Stable Diffusion、MiniCPM-V、Gemma 3、SDXL-Turbo等模型。
计算机视觉领域,支持CNN架构,包括EngineX-vc-cnn(视觉分类)、EngineX-paddleocr(文字识别)等引擎,适配ResNet、MobileNet、LCNet、CRNN等模型。
信创模盒的另一个重要特性是其强大的生态兼容性。平台已实现对华为昇腾、寒武纪、天数智芯、昆仑芯、沐曦、曦望、海光、摩尔线程等主流国产算力的全面适配,并承诺未来将覆盖市面所有主流信创算力。
3.2 信创模盒的市场布局与目标客户群体
信创模盒的目标市场主要集中在对信创有刚性需求的行业,包括金融、能源、政务、高端制造等领域。根据第四范式的业务布局,这些行业对国产化替代有着强烈需求,同时对AI应用的可靠性、安全性要求极高。
在金融领域,信创模盒已与多家国有大行合作,应用于智能风控、反欺诈、客户画像等场景。例如,在银行反欺诈应用中,AI系统需要识别"异常交易",这与能源管道监测中AI寻找光纤传感器信号中的"异常波动"(可能代表泄漏或破坏)具有相似的技术逻辑 。
在能源领域,信创模盒已为中石油、中石化、国家电网、南方电网等企业提供服务,帮助实现设备故障诊断、能源生产优化、电网智能调度等功能 。特别是在风电预测模型适配方面,单风场年增收超百万元;在高端制造领域完成风洞计算大模型适配,填补了国产算力在关键领域的应用空白。
在政务领域,信创模盒支持政府部门构建智能化的政务服务体系,包括智能审批、智能监管、智能决策等应用场景。在制造领域,已为宁德时代等企业搭建供应链决策系统,为中车信息等客户提供智能制造解决方案 。
从客户结构来看,信创模盒的目标客户主要包括三类:一是有信创合规需求的大型企业和政府机构;二是希望降低AI应用门槛的中小企业;三是从事AI开发的科研机构和开发者社区。平台通过提供"开箱即用"的模型和完善的技术支持服务,满足不同类型客户的需求。
3.3 信创模盒在超算互联网趋势下的应用场景
在国家超算互联网建设的大背景下,信创模盒ModelHub XC展现出广阔的应用前景,主要体现在以下几个方面:
超算节点的模型服务部署。作为国家超算互联网的重要组成部分,各地超算中心可以将信创模盒部署为模型服务节点,为接入超算互联网的用户提供标准化的AI模型服务。用户可以像调用云计算资源一样,按需获取已适配国产算力的各类AI模型,大大降低了AI应用的技术门槛和部署成本。
跨区域算力协同场景。在超算互联网的架构下,信创模盒可以实现模型在不同算力中心之间的无缝迁移和协同计算。例如,一个复杂的AI训练任务可以在郑州的超算中心进行模型训练,在贵州的算力中心进行推理优化,在深圳的边缘节点进行实时部署,整个过程通过信创模盒的统一接口实现透明化操作。
行业大模型的规模化部署。信创模盒已适配超过1万个模型,涵盖了从通用大语言模型到垂直领域专业模型的多元化品类 。在超算互联网环境下,这些模型可以被快速部署到各个行业的应用场景中,加速AI技术在千行百业的落地。例如,金融行业的风险评估模型、能源行业的设备预测模型、制造行业的质量检测模型等,都可以通过超算互联网实现规模化应用。
算力资源的智能调度与优化。信创模盒与超算互联网的调度系统深度集成,可以根据不同模型的算力需求和各节点的资源状况,实现智能的算力分配和负载均衡。特别是对于需要大规模算力的大模型训练任务,系统可以自动调配多个超算节点的资源,实现分布式训练,大幅提升训练效率。
3.4 信创模盒的发展现状与竞争优势
信创模盒ModelHub XC自2025年9月22日正式上线以来,发展迅速,取得了一系列重要里程碑:
模型适配数量快速增长。上线仅两个月,平台已完成适配并认证的模型数量就突破了1000个,比原计划提前了4个月。截至2025年12月,适配认证模型数量已超过2000个,比预期目标时间提前了半个月。到2026年初,平台已完成对超过1万个模型的适配认证,适配速度呈指数级增长 。
技术突破不断涌现。在垂直领域复杂模型适配方面,信创模盒在国产芯片曦望S2上完成了风洞计算大模型的完整适配与深度优化,实现了业内首次在国产芯片上对垂直领域复杂大模型的完整适配,达到可商用、可部署的生产级性能标准,单张图处理时间约1.5秒,与当前国际主流高端GPU性能持平。
在前沿模型适配方面,平台完成了创新模型DeepSeek-OCR在昇腾、沐曦等信创算力卡上的适配测试,该模型开创性地利用视觉模态压缩文本信息,是破解大语言模型长上下文效率难题的关键探索。模型输出效果与NVIDIA平台完全一致,推理性能差距控制在30%以内。
生态建设成效显著。信创模盒已聚集超过1万名开发者,沉淀了500多个行业模型模板,形成了"开发者-企业-算力厂商"的正循环生态。平台还推出了"信创模型适配增值服务",由数百人工程师团队支撑,为用户提供模型适配的"兜底"服务,确保指定模型在国产环境中的成功适配与稳定运行。
差异化竞争优势明显。相较于行业同类产品,信创模盒的差异化优势集中在"场景聚焦、生态开放、规模优先"三大维度。与华为ModelArts对比,华为平台绑定自身昇腾芯片,聚焦生态内客户;信创模盒主打全芯片兼容,不依附单一硬件厂商,定位跨芯片通用平台,覆盖范围更广,适配灵活性更强。
四、万神殿Pantheon平台的全面剖析
4.1 万神殿Pantheon的技术架构与创新特点
万神殿Pantheon平台(Phanthy)是第四范式基于"AI Agent+世界模型"技术路线推出的人工智能平台,代表了公司向AGI(通用人工智能)演进的核心战略。与传统的大语言模型不同,Phanthy并非又一个千亿参数的语言模型,而是一个由生成式协调中枢和多个垂直世界模型构成的智能操作系统。
技术架构创新。万神殿的核心架构采用"生成式协调中枢+多个垂直世界模型"的设计。生成式协调中枢基于轻量化但高意图理解能力的引擎,负责自动拆解用户任务,识别涉及的领域(如财务、物流、地缘政治、电池技术等);垂直世界模型则基于领域专业数据,总结专业规律,解决深层问题。
以医院作类比,生成式AI模型更像是挂号与分诊系统,负责理解需求、协调流程;而垂直世界模型则是各个专科医生,真正承担诊断、分析与决策工作。这种架构设计使AI系统能够像人类专家一样,在各自领域深耕与协作,而非依赖单一模型的"全知全能"幻觉。
垂直世界模型的独特优势。万神殿的垂直世界模型具备领域因果推理能力,不同于LLM基于统计相关性的"猜测"。例如,Phanthy的金融世界模型能模拟宏观经济变量如何传导至企业现金流,能源模型可推演电网负荷波动与新能源出力之间的动态平衡——每一步推理均可追溯、可干预、可验证。
闭环决策与行动反馈能力。与只能"说"的传统LLM不同,Phanthy能够"做"。在制造业场景中,其工业世界模型可直接对接PLC控制系统,在检测到异常后自动调整参数并观察结果,形成"感知-决策-执行-学习"闭环——这是纯文本模型永远无法触及的智能层级。
认知诚实性设计。当面对超出知识边界的问题时,Phanthy的垂直模型会明确返回"置信度不足"或"需人工介入",而非像LLM那样"一本正经地胡说八道"。这种认知诚实性,是AI进入高风险领域的前提。
4.2 万神殿在大模型训练推理与多模态处理方面的能力
万神殿平台在大模型训练推理和多模态处理方面展现出强大的技术能力,主要体现在以下几个方面:
万亿维特征处理能力。第四范式通过软件定义AI算力,打造了业界支持万亿维特征处理的高性能AI算力架构。这一架构兼具低成本和高效率的特点,构建了面向AI的加速卡、网络通信架构、资源调度、内存数据库、参数服务器等完整体系,充分释放AI势能。
AutoML技术领先优势。万神殿集成了第四范式在AutoML(自动机器学习)领域的深厚积累,开辟了30多个AutoML算法方向,全面覆盖认知、感知、决策等AutoML算法领域,率先在行业端应用。公司还是国际AI顶会AutoML赛事主办方,创办了首个国际顶级期刊AutoML特刊,入选Gartner、Forrester全球AutoML平台代表厂商。
多模态数据处理能力。万神殿的先知AIOS 5.0平台进一步升级了"预测下一个X"的能力,其核心特点是基于各行各业场景的X模态数据,构建行业基座大模型。平台支持文本、图像、语音、视频等多种模态数据的融合处理,能够从多维度理解和分析复杂的业务场景。
分布式训练与推理优化。万神殿平台针对大规模模型训练进行了专门优化,支持千卡级集群管理能力。通过智能的资源调度和负载均衡机制,系统可以根据不同模型的算力需求和节点资源状况,实现高效的分布式训练。在推理方面,平台通过模型压缩、量化等技术,大幅提升了推理效率,降低了部署成本。
4.3 万神殿的目标市场与应用场景分析
万神殿平台的目标市场主要聚焦于对AI决策能力有高要求的行业,特别是那些需要深度行业知识和因果推理的场景。根据第四范式的业务布局,万神殿的应用场景涵盖了金融、能源、制造、政务等多个关键领域。
金融领域应用。在金融领域,万神殿与国有大行合作智能风控系统,通过垂直世界模型模拟宏观经济变量对企业现金流的影响,实现对金融风险的精准预测和控制。系统能够处理海量的金融交易数据,识别异常模式,并提供可解释的决策建议 。
能源领域应用。在能源领域,万神殿为国家电网优化运维提供支持,通过能源世界模型推演电网负荷波动与新能源出力之间的动态平衡。系统可以预测能源需求,优化能源调度,提高能源利用效率,降低运营成本 。
制造领域应用。在制造领域,万神殿为宁德时代等企业搭建供应链决策系统,通过工业世界模型实现对生产过程的实时监控和优化。系统可以检测设备异常,预测维护需求,优化生产流程,提升产品质量和生产效率 。
政务领域应用。在政务领域,万神殿支持政府部门构建智能化的决策支持系统,涵盖政策评估、资源配置、风险预警等多个方面。系统能够综合考虑经济、社会、环境等多维度因素,为政府决策提供科学依据。
医疗健康应用。万神殿还在探索医疗健康领域的应用,通过医疗世界模型辅助医生进行诊断和治疗决策。系统可以分析患者的病历、影像、检验等多模态数据,提供个性化的诊疗建议,并在实践中不断学习和优化。
4.4 万神殿与超算互联网的协同潜力
万神殿平台与国家超算互联网具有强大的协同潜力,主要体现在以下几个方面:
大规模模型训练的算力支撑。万神殿的垂直世界模型往往需要处理海量数据和复杂的计算任务,特别是在训练阶段需要消耗大量算力。超算互联网提供的强大算力资源,为万神殿的模型训练提供了坚实基础。通过与超算互联网的集成,万神殿可以利用分布在全国各地的算力资源,实现大规模模型的高效训练。
跨区域的协同推理能力。万神殿的多模型协同推理机制需要在不同的垂直世界模型之间进行数据交换和结果整合。超算互联网的高速网络和智能调度系统,为这种跨区域的协同推理提供了技术支撑。不同地区的专业模型可以通过超算互联网实现实时协作,共同解决复杂的综合性问题。
行业知识的分布式存储与共享。万神殿的垂直世界模型积累了大量的行业知识和经验,这些知识需要在不同的应用场景中进行共享和复用。超算互联网的分布式存储系统,可以为这些知识提供安全可靠的存储环境,并支持跨区域的知识共享和更新。
AI Agent的智能调度与管理。万神殿的AI Agent需要根据用户需求动态调用不同的垂直世界模型,这需要高效的调度和管理机制。超算互联网的资源管理系统可以为AI Agent提供智能化的调度支持,根据任务的复杂程度、紧急程度和资源状况,自动分配最合适的计算资源和模型服务。
五、信创模盒与万神殿的对比分析及协同效应
5.1 技术架构层面的差异与互补性
信创模盒ModelHub XC和万神殿Pantheon在技术架构上存在显著差异,但同时也具有很强的互补性:
技术定位的根本差异。信创模盒定位为"信创版Hugging Face",主要解决国产算力与AI模型之间的适配问题,通过EngineX引擎体系实现"引擎驱动、多模型即插即用" 。其核心价值在于降低模型部署的技术门槛,让开发者能够方便地在国产算力上运行各种主流模型。
万神殿则定位为基于"AI Agent+世界模型"的智能操作系统,追求的是AGI(通用人工智能)的实现路径。它不是简单的模型集合,而是一个具有认知能力和决策能力的智能系统。
架构设计的不同思路。信创模盒采用"平台+社区+服务"的三位一体架构,重点在于模型的适配、管理和分发。平台提供了丰富的模型库,涵盖了从通用大模型到专业领域模型的各种类型,并通过社区机制促进开发者之间的交流和合作。
万神殿采用"生成式协调中枢+多个垂直世界模型"的架构,重点在于构建具有深度行业知识和推理能力的智能系统。生成式协调中枢负责任务理解和分解,垂直世界模型负责专业领域的分析和决策,两者协同完成复杂的智能任务。
技术能力的互补关系。信创模盒提供了丰富的模型资源和便捷的部署方式,为万神殿的垂直世界模型提供了模型基础。万神殿的垂直世界模型可以基于信创模盒提供的预训练模型进行微调,快速构建行业专用模型。同时,万神殿的多模态处理能力和智能调度机制,也可以为信创模盒的模型应用提供更高级的功能支持。
5.2 目标市场与商业模式的对比
信创模盒和万神殿在目标市场和商业模式方面呈现出不同的特点:
目标市场的差异。信创模盒主要面向对信创有刚性需求的行业,包括金融、能源、政务、高端制造等。这些行业的客户更关注模型的合规性、安全性和部署便利性,对价格敏感度相对较低。
万神殿主要面向对AI决策能力有高要求的行业,特别是那些需要深度行业知识和因果推理的场景。目标客户包括需要构建复杂AI应用的大型企业、科研机构和政府部门。
商业模式的不同。信创模盒采用"平台+服务"的商业模式,通过提供模型适配、部署和运维服务获得收入。平台提供免费的基础服务,通过增值服务(如定制化适配、技术支持等)实现商业化。
万神殿采用"产品+解决方案"的商业模式,通过提供完整的AI系统和行业解决方案获得收入。公司根据客户的具体需求,定制开发相应的垂直世界模型和应用系统,并提供持续的技术支持和升级服务。
收入结构的差异。根据第四范式的财务数据,2025年上半年信创业务收入占比已达45%,成为营收增长的核心引擎 。信创模盒作为信创业务的重要组成部分,其收入主要来自模型授权、技术服务和运维支持。
万神殿作为公司的战略产品,目前主要通过项目制的方式获得收入。随着产品的成熟和市场的认可,预计将逐步转向订阅制或按使用量计费的模式。
5.3 两个平台形成的协同生态体系
信创模盒和万神殿形成了强大的协同生态体系,主要体现在以下几个方面:
技术协同。信创模盒为万神殿提供了丰富的模型资源和便捷的部署环境,万神殿的技术能力又为信创模盒的模型应用提供了高级功能支持。两者通过技术集成,形成了"模型-平台-应用"的完整技术链条 。
具体而言,信创模盒的EngineX引擎体系可以为万神殿的垂直世界模型提供底层的算力适配和优化支持,确保模型在不同的国产算力平台上都能高效运行。万神殿的AutoML技术和多模态处理能力,又可以为信创模盒中的模型提供自动化的训练和优化服务。
生态协同。两个平台共同构建了"硬件适配-模型开发-场景应用"的全链条服务能力,增强了整体解决方案的竞争力 。通过整合不同的技术资源和合作伙伴,形成了覆盖芯片厂商、模型开发者、应用集成商、最终用户的完整生态系统。
在这个生态系统中,信创模盒主要承担模型资源整合和分发的角色,万神殿主要承担智能应用开发和部署的角色。两者通过开放的API和标准化的接口,实现了生态伙伴之间的无缝协作。
业务协同。信创模盒和万神殿在业务层面形成了互补关系。信创模盒主要解决"能用"的问题,万神殿主要解决"好用"的问题。客户可以先通过信创模盒快速部署基础的AI应用,然后逐步升级到万神殿的高级功能,实现AI应用的持续演进。
同时,两个平台的客户群体有很大的重叠性,特别是在金融、能源、制造等行业。通过提供差异化的产品和服务,可以满足客户在不同发展阶段的需求,提高客户粘性和生命周期价值。
数据协同。两个平台在数据处理和知识积累方面也形成了协同效应。万神殿的垂直世界模型在运行过程中积累的行业知识和经验,可以反馈到信创模盒的模型库中,丰富模型的知识内涵。信创模盒中的大量模型应用案例,又为万神殿的模型训练提供了宝贵的数据资源。
六、第四范式在不同时间跨度下的发展机遇
6.1 短期发展机遇(2025-2026年)
在未来12-18个月内,第四范式面临着多重短期发展机遇:
超算互联网建设带来的直接机遇。国家超算互联网核心节点的正式上线试运行,为第四范式提供了巨大的市场机会。根据规划,到2026年我国将建立较为完备的算力互联互通标准、标识和规则体系 。第四范式可以充分利用其在国产算力适配方面的技术优势,成为超算互联网的重要技术服务商。
具体而言,第四范式可以为各地超算中心提供信创模盒的部署和运维服务,帮助超算中心快速建立模型服务能力。同时,万神殿平台可以为超算互联网的AI应用提供核心的智能引擎,支撑大规模的AI训练和推理任务。
信创政策红利的持续释放。随着信创政策的深入推进,各行各业对国产化AI解决方案的需求将持续增长。根据第四范式的规划,2026年营收目标为110-130亿元,同比增长50-80%,实现盈利转正 。其中,信创业务预计将继续保持高速增长,占比有望从目前的45%提升到50%以上。
技术突破带来的竞争优势。信创模盒在垂直领域复杂模型适配方面取得的突破,如在风洞计算大模型、DeepSeek-OCR等前沿模型的成功适配,为公司在高端制造、科研计算等领域打开了新的市场空间。这些技术突破不仅提升了公司的技术形象,也带来了实实在在的商业机会。
生态合作的深化拓展。第四范式与华为、曦望、天数智芯等芯片厂商的深度合作关系,将在短期内带来更多的商业机会。特别是华为昇腾950在海外市场的拓展,将带动第四范式的SageOne IA一体机解决方案同步出海,直接拿下海外企业AI算力部署的核心订单 。
6.2 中期发展机遇(2027-2028年)
中期来看,第四范式在2027-2028年将迎来更大的发展空间:
算力互联网的全面建成。根据《算力互联互通行动计划》,到2028年我国将基本实现全国公共算力标准化互联,逐步形成具备智能感知、实时发现、随需获取的算力互联网 。这将为第四范式的两个平台提供前所未有的发展机遇。
在这个阶段,信创模盒有望成为算力互联网的标准模型服务平台,覆盖全国主要的算力节点。万神殿平台则可以成为算力互联网上的智能应用引擎,支撑各类复杂的AI应用。
AI Agent应用的规模化普及。根据预测,到2027年GenAI数字助理将会代替20%的企业软件交互界面,并在业务流程中发挥更大作用 。万神殿的"AI Agent+世界模型"架构,正好契合这一趋势。
第四范式可以利用万神殿平台,为企业提供智能化的数字助理服务,帮助企业实现业务流程的智能化改造。同时,信创模盒可以为这些AI Agent提供丰富的模型资源,支撑多样化的应用场景。
垂直行业的深度渗透。在中期阶段,第四范式将在金融、能源、制造、政务等重点行业实现更深层次的渗透。通过万神殿的垂直世界模型,公司可以为每个行业构建专业化的AI解决方案,形成行业壁垒。
根据规划,2027年第四范式营收目标为180-220亿元,同比增长60-90%,净利润率达10-15% 。这一目标的实现,很大程度上依赖于在垂直行业的深度布局和规模化应用。
技术标准的制定参与。随着市场地位的提升,第四范式有望参与国家和行业AI技术标准的制定。特别是在信创AI、超算互联网、AI Agent等领域,公司的技术积累和实践经验使其具备了参与标准制定的能力。
6.3 长期发展机遇(2029-2035年)
长期来看,第四范式在2029-2035年将迎来战略转型和价值重塑的关键时期:
AGI时代的到来。随着AI技术的持续演进,通用人工智能(AGI)有望在2030年代实现重大突破。万神殿的"AI Agent+世界模型"技术路线,为公司在AGI时代占据有利位置奠定了基础。
根据第四范式的长期规划,公司设定了2029年200亿元收入的目标,其中B端业务约190亿元(占比95%),未来5年需保持30%左右年化增速 。这一目标的实现,将使公司成为中国AI领域的领军企业之一。
产业格局的重塑机会。到2030年,中国超算市场规模将达到1万亿元人民币,其中算力商业化应用场景占比将超过60% 。在这个巨大的市场中,第四范式有望通过技术创新和生态建设,重塑产业格局。
特别是在信创AI领域,第四范式已经建立了先发优势。随着国产算力的全面成熟和应用场景的不断拓展,公司有望成为信创AI生态的核心推动者和受益者。
国际化发展的机遇。随着中国AI技术的成熟和"一带一路"倡议的推进,第四范式的产品和解决方案有望走向国际市场。特别是在发展中国家,对性价比高、技术可靠的AI解决方案有巨大需求。
万神殿平台的"AI Agent+世界模型"架构,具有很强的跨文化适应性,可以根据不同国家和地区的需求进行定制化部署。信创模盒的多语言支持和本地化适配能力,也为国际化发展提供了技术支撑。
新兴技术的融合创新。在长期发展中,第四范式还将受益于与量子计算、脑机接口、6G通信等新兴技术的融合创新。这些技术的突破将为AI应用带来新的可能性,也为公司的技术创新提供了新的方向。
七、结论与建议
7.1 第四范式在国产算力趋势下的核心机遇总结
基于以上分析,第四范式在国产算力打通AI"任督二脉"的发展趋势下,面临着前所未有的战略机遇:
技术领先地位的确立。第四范式通过信创模盒ModelHub XC和万神殿Pantheon平台,在国产算力生态中确立了技术领先地位。特别是在模型适配、AI Agent、垂直世界模型等关键技术领域,公司已经形成了独特的竞争优势。信创模盒已适配超过1万个模型,万神殿的"AI Agent+世界模型"架构代表了AI技术的前沿方向。
市场份额的快速增长。随着信创政策的深入推进和超算互联网的建设,第四范式的市场份额呈现快速增长态势。2025年上半年信创业务收入占比已达45%,公司预计2026年营收将达到110-130亿元,2027年达到180-220亿元,2029年达到200亿元的目标。
生态体系的全面构建。第四范式已经构建了覆盖芯片厂商、模型开发者、应用集成商、最终用户的完整生态系统。通过与华为、曦望、天数智芯等芯片厂商的深度合作,以及信创模盒社区的建设,公司正在成为国产AI生态的重要组织者和推动者。
政策红利的充分享受。作为信创AI领域的领军企业,第四范式将充分受益于国家在超算互联网、信创产业、AI发展等方面的政策支持。特别是在"东数西算"、算力互联互通、AI+等国家战略的推动下,公司面临着巨大的发展机遇。
7.2 对投资者、企业客户及行业观察者的建议
针对不同的利益相关者,我们提出以下建议:
对投资者的建议:
第四范式在国产算力和AI发展的大趋势下具有很高的投资价值。建议关注以下几个方面:
一是技术创新能力。重点关注信创模盒的模型适配进展和万神殿平台的技术突破,特别是在垂直行业应用和AGI技术路线上的进展。
二是市场拓展情况。密切关注公司在金融、能源、制造、政务等重点行业的订单获取情况,以及在超算互联网建设中的参与程度。
三是财务表现。重点关注信创业务收入占比的变化、毛利率的提升、研发投入的强度等财务指标。根据公司规划,2026年将实现盈利转正,这是一个重要的财务拐点。
四是生态建设进展。关注公司与芯片厂商、云服务商、行业客户等生态伙伴的合作进展,特别是在超算互联网生态中的地位。
对企业客户的建议:
对于正在进行数字化转型的企业,建议考虑以下策略:
一是评估自身的信创需求。如果企业有合规要求或希望降低对国外技术的依赖,可以优先考虑采用第四范式的信创模盒解决方案,快速实现AI应用的国产化部署。
二是规划AI应用的发展路径。建议采用"先试点、后推广"的策略,先通过信创模盒部署基础的AI应用,然后逐步升级到万神殿的高级功能,实现AI能力的持续提升。
三是关注行业最佳实践。重点关注第四范式在金融、能源、制造等行业的成功案例,学习借鉴同行业的AI应用经验。
四是重视人才培养。AI应用的成功离不开专业人才,建议企业在部署AI系统的同时,加强对员工的培训,提升整体的AI应用能力。
对行业观察者的建议:
对于关注AI产业发展的行业观察者,建议重点关注以下趋势:
一是国产算力生态的演进。密切关注国家超算互联网的建设进展,以及国产芯片、框架、模型等技术栈的成熟度提升。
二是AI技术路线的分化。关注"大模型"与"垂直模型"两条技术路线的竞争与融合,特别是万神殿的"AI Agent+世界模型"路线的发展前景。
三是商业模式的创新。关注AI企业如何在技术创新的同时,探索可持续的商业模式,特别是订阅制、按使用量计费等新模式的发展。
四是国际竞争格局的变化。随着中国AI技术的发展,关注中美在AI领域的竞争态势,以及中国AI企业的国际化发展机遇。
总的来说,第四范式在国产算力打通AI"任督二脉"的历史机遇中,通过信创模盒和万神殿两个平台的协同发展,有望成为中国AI产业的重要推动者和受益者。对于所有关注中国AI发展的相关方,都应该密切关注第四范式的发展动态,把握这一历史性的发展机遇。