AI产业包括以下部分:
1.数字新基建(服务器零配件cpo光模块及后续延伸出的半导体等)
2.数字产业化(信创、云计算、大数据、人工智能、网络安全等))
3.产业数字化(数据要素提供商、数据交易中心、数据服务商、数据应用等)
我们目前处于第一步尾声第二步的初始 ,AI核心其实就是算力算法数据,过去三年把算力炒到极致,产业发展一定是循序渐进而且稳定前进的,不论二级市场炒不炒,硬件堆积的算力满足了,就一定会导入数据,优化算法,应用谁能做出来能不能出来我看不清楚,但硬件采购已经是确定性开支,那么后续的数据算法就都是确定性的,所以做确定性的服务比盼一个爆款应用目前看更有投资价值。因为硬件后续的机会在易损耗配件端,对比前几年增速的大规模采购已经没可能了,不是量不多而是增速,资本市场看预期,前几年采购上万亿对比之前可能是1000%增速,明年哪怕是2万亿增速变100%了,增速同比下降90%本身就是个成长股投资的减分项。
所谓应用就是AI智能体,就是一个程序,目前市场多数人把使用当应用,拿一些广告游戏等行业公司当ai应用去炒作,应用本质是自己做个软件出来卖或自己用,而使用是把别人做的软件买过来取改善自己的业务流程以达到降本增效,所以更多的除软件之外的行业公司是AI使用而非应用,应用是他们的成本端。真正的ai应用应该是属于公司的利润端就是你靠这个赚钱。
而应用是如何产生呢?可以把自己当老板想一下怎么才能造出一个应用,先别管是不是爆款,先考虑要走一遍那些流程才能造出来,然后看看市场到那个阶段了,最后是存在那些不容易解决的问题,这些问题有没有解决方案,解决方案所在的公司有没有。
大模型就是个底座,在这个基础上去做各种应用,现在只是由于技术约束导致模型即应用,大家把ai简单理解为一个智能百度。模型公司亏损的逻辑就是成本,硬件采购、电费、损耗,这仨是大头,只要训练推演不停就是天量电费一天烧一套房轻轻松松,模型成长就得不断灌数据,存储和各种算力配套硬件就得跟上,硬件多了损耗就要更换都是客观事实。智能体需要不断的数据交互学习才能成长,才能更像人,在这个过程中,就需要不断给它提供有价值的数据,向量数据库就是干这事,而程序学习的快慢取决于数据在各种软硬件之间传输的速度,这也是最大的耗电成本,这时候就需要英方这种快速数据复制功能。 而学习过程中,因为硬件会坏机房会过热会停电等等问题,这个过程会停止,那么之前的进度就会作废要从最近一个存档开始,存档之后的电费都浪费了,所以需要英方这种能做瞬时恢复的容灾。 其他问题在于分布式训练的算法架构等层面。
所以当硬件高位之后突然发现蹭热点的$星环科技-U(SH688031)$ 在商业航天板块熄火后依然强势,就是因为它的AI逻辑正好卡位在硬件采购后开始进行AI生成的第一步:接入数据库,而且由于星环在数据库基础上增加了架构方面的业务,等于说给下游客户提供了附加服务,如果单纯数据库做系统集成,直接接入达梦太极就够了,星环是谁啊,但基于大模型的开发出现后,传统原材料一样的数据库就不够用了,需要有类似星环数据湖这种工具类的数据导入能辅助做些类似基础数据工具的企业才吃香,算法工程师后面的工作就是围绕数据做微调,星湖目前有点像但能做成啥样不清楚,毕竟多数算法都是甲方自己的活,但就这星环就能比同行业绩更好但更多是销售原材料的$达梦数据(SH688692)$ 得到了更高的估值溢价。
而同属AI infra的$英方软件(SH688435)$ 其基本面是数据复制、容灾、备份,其中数据复制的特性正好卡位在数据库接入之后的异构数据传输层面,所以我之前有发帖说星环之后大概率是英方表现也是这个思路,而且对比星环卡位数据库环境,英方除了传输,还有中端的瞬时容灾这种AI生成期的成本端强逻辑,以及随着AI产业不断发展带来的数据量爆发,存储这种刚需背后的1:1甚至是1:3的更强逻辑灾备等待兑现。
大模型架构到现在基本上已经很成熟了,最多根据分布式训练做微调提高卡的利用率,拉开差距的就是数据工程了。如何用快速调用有效的数据,如何进行数据清洗合成,如何进行数据配比,能不能搭混合架构把显存占用降下来,把存量代码库扩充更大而不增加计算成本 能不能做到动态分配算力把处理简单问题和需要深度思考的问题的层级差异化节省算力成本 能不能做到端侧系统下沉,在节省终端电量的情况下让应用可以做到后台运行而不是打开一个对话框才能互动 能不能做到合成数据质控,当下的原始数据库基本都被模型占用后续在没有大量终端客户交互下生成的数据全都是模型自己搞出来的,用模型生成的数据去喂模型相当于近亲繁殖导致降智出现各种幻觉错误也就不可避免,那么谁把真实数据喂给模型谁更接近成功。
标注是数据要素上游,跟采集清洗一个等级的,它做预训练也是配合下游客户需求,提供更多服务,但数据采集标注是个高成本低利润的活,不管外包还是自己找人干,只要是人力标注成本就下不来,如果不是人力标注干嘛要和各地方政府合作建重资产的基地。
数据提供、数据运算、数据传输、数据保护,好材料才能做出好菜,萝卜白菜做不出佛跳墙。 算法决定了调用数据的逻辑性,能不能快速准确没有额外步骤的把运算结果呈现,减轻显存占用的负担就是省钱。 传输速度省电的同时让运算中不至于一半卡在计算另外一半的卡在等数据本身也是省电。 保护更好理解,刚做好ppt没保存停电了……能解决上述问题的企业基本上在基础软件领域,应该也是ai产业链中游最重要的服务型企业了
国内市场应用是否爆发目前还存在不确定性,但随着硬件堆积带来的硬基建基础初步完善,训练推演等业务展开后的各种软基建就要落地,硬件在解决最基础的算力,软件同样要做最基础也最不可或缺的,数据方面数据库、传输、容灾、备份、监控,算法包括操作系统、中间件,从业务角度要做的事很多,数据采集、清洗、提纯,到数据库接入后的训练、推演,离最终能拿出来去卖给客户的应用差的十万八千里,中间有太多需要花钱的环节,这每个环节背后都有赖以生存的公司,产业投资就是把这些环节理清楚,把这些公司找出来,然后评判投资价值。所有的核心都是你能不能帮别人节省时间。对于应用的诞生充分说明了时间就是金钱。万卡集群每小时7000-10000度电的消耗对大厂也是高成本。
当下处于训练到推理阶段,从大模型的参数规模扩大增加预训练的数据量,开始转向推理去满足盈利为目的的商业化需求,目前看全民爆款类甚至个别大行业(比如智驾)的智能体,基本无出现可能,目前以transformer为核心架构的算法在于对异构环境下的分布式训练做到适配,但无法达到最优,这是由于当下transformer算法架构带来的运算层级过多,导致单个任务调用数据对显存占用过大导致,比如当你问大模型1+1=几和让模型帮你推荐一个距你当前位置最近的餐厅,运算过程都需要从发出指令到数据库调取数据进行模糊检索,并根据关键词进行推理,整个过程的运算层级是一样的,这导致调取数据量的浪费以及对显存的极大占用。
而基于现有算法去做全民应用,同一时刻多层级数据量的调用会因为瞬时数据过载显存占用过大导致宕机风险提升,所以当下应用更多基于搜索类型而且一旦进入深度搜索就需要付费。类似特斯拉智能汽车和黄仁勋的机器人,用大模型可满足概念机演示,一旦商用规模化生产,批量用户运行开放式任务带来的数据调用会导致顺势显存超载带来模型崩塌,这对于智驾这种跟人身安全直接挂钩的产业来讲是灾难。所以当下模型最大的应用领域在工业化,减少开放式任务的概率,通过私域数据做推理闭环去解决生产中的单一或个别环节问题,既能提升效率也能给保证应用的安全性使用。所以当下算法在顶层架构无法根本性优化的情况下,智能体的突破领域在于工业化、办公化。
现在模型或者说应用批量爆发的障碍在算法和架构带来的成本降不下来,简单来说模型的架构算法最终是对应想生成什么样的应用,而且要考虑公司的成本,腾讯阿里字节有钱就可以多烧钱跑训练跑推理,损耗就多买卡买配件,架构不好就多调整几次,算法不好就不断优化,就是电费贵了点能承受,但小模型行业应用的公司能拿出多少钱烧模型,肯定要精打细算让效率更高,算法大家都有,关键是能不能做到让模型自适应,就是真正像个人一样,问1+1脱口而出就是2,问宫廷玉液酒就知道180一杯,不需要这些东西也要说等下我列个公式做个排除给你个最终答案,这个过程对企业来说运算成本太高了
现有的技术想节省成本只有两条路: 把大模型做小,去贴合产业需求做小模型解决具体问题,优化算法架构,把训练推演的效率提升,减少不必要损耗。
硬件是因为上游被卡脖子了,算法难度在于怎么结合需求做架构、如何去调整算法参数、怎么合成数据。首先这些东西对比以前是0-1,大家只能先摸着老美过河,其次是截止目前我们还不清楚或者说产业本身也不清楚到底想要什么样的人工智能或者说人工智能到底能帮产业干啥,所以这个算法没法从上层搭建,最后在运算过程中的各种配套还不完备,堆积的硬件带来的运算中问题过多,而大厂背后资本又急于出东西,导致算法更多是被动调整而不是耐心打磨。
从商业化和操作性来看,基于小模型、数据闭环、解决单一或个别领域问题的智能体会很容易跑通,成本也更可控,这就是数据闭环+解决单一需求,单一领域数据有限,智能体推演过程中对数据的调用就快,耗电量也低,而且单一问题对算法来说可以规避多数无效运算。还有就是小模型,一个运算起来占用手机内存3~5g的应用一旦打开甚至后台运行,基本上微信都会卡更别说打游戏啥的,所以小模型更利于集成到端侧方便使用
我一直说ai应用变现最快的地方在工业化而不是大众化,通用模型再牛逼没有行业数据和工作流也很难盈利,最终先赚钱的应用除非有全民爆款否则大概率是基于小模型的tob端行业应用,小模型、行业私域数据、处理指定方向问题、工程处理难度、客户购买欲等方向都指向了在工业化某些领域做出一个能够节省人力成本的小型化智能体,比去消耗天量成本去做出一个无法确认消费者需求的纯市场化应用来的简单。毕竟普通老百姓不见得会为了自动生成图片音乐视频去充值,但老板绝逼会为一个能裁掉几个员工而不影响公司运转的程序去买单,假定你是一家工厂老板,你会为一款在手机上能帮助你点外卖叫滴滴订酒店的智能助手一月充200块钱,还是会花2~5w每年去采购一个能帮你解决流水线自动化设备管理节省两个倒班员工开支的智能程序?从业务本身看,生成一个全民智能助手的难度比一个工厂流水线管家的难度要高n倍,智能化跟智能体不一样,黑灯工厂可能程序化就够了,但智能体需要监控这些设备运行,并争取在企业生产的进销存管等环节发现问题并能提出解决方案并实施,目前难点是工业企业懂生产不懂研发,软件公司懂代码不懂产业。
硬件是满天星,供需短期失衡采购外溢导致所有行业内公司都受益,所以是板块效应得走法。 软件由于产业发展的特殊性,很大概率是少数人的狂欢,比如星环这种数据湖模式,一旦它去卡位数据库环节,那么从适配角度和后续操作便利度来讲,其他公司就很难拿到订单,英方也是这样,容灾可不是应用出来才需要,ai应用研发或者说模型训练推演过程中数据库导入就涉及回滚了,跟你做工作汇报ppt一样,不能全写完再单独u盘存一份,中间停电咋办?你不得随时保存?一旦它的快速数据复制被某个大厂认可作为模型架构内数据传输的核心基础软件并成功节省了成本,那爱数鼎甲这种做硬件为主的同行就很难拿到同类订单。博睿也是这样,明摆着服务类用谁都行,已经有个市场公认最好用而且不会像硬件那样缺货,为啥要去买那些一般公司的产品? 所以软件逻辑一定要在细分龙头上做赢家通吃。当多数人都用windows作为操作系统的时候,Linux哪怕再好也只能是少数人的选择了。
软件以前的问题在于同类别商业服务产品都是外资占据市场,它们才是那个赢家,那么现在个别领域必须要国产替代了,新的赢家就会从国产软件目前的龙头中诞生,这是当下二级市场没考虑清楚的一点。或者说那些领域才是必须要国产替代,那些是可以市场化商业化的。把这些差异点找出来再去看公司的竞争格局就更清晰了。
简单来说,目前300里多数跟政府央国企打交道的信创概念,一半以上是掮客做集成的,靠人脉拉关系拿项目,营销人员比研发人员多。这类能受益但没啥核心价值,个别特别强悍能持续拿大单的有价值。 688里多数做底层工作的,现在替代受益较多,但要看客户,如果客户大多都是阿里腾讯字节这种商业公司的,那就是还要跟外企竞争,国产替代跟它也没啥关系。
很多时候做投资不仅要低头看路,还要抬头看天,市场短期炒作的标的可能只是因为之前炒作过有辨识度散户群众基础好,但长期看一定是基于基本面逻辑围绕行业发展去做产业投资,十五五规划里写的几大项清清楚楚,现实行业也在不断推陈出新,那么就需要比行业发展早三步思考、早半步投资。
短期题材我也会小仓位去玩,但知道自己在博弈什么,设置好止盈止损就好了,比如近期热度最高的话题持续性可预期的春晚各大厂商的大模型,我个人会把它解析为刺激两条线:机构主导的产业思维&游资主导的题材逻辑
机构线:模型春节期间全民测试会带来数据峰值导致应用宕机风险剧增,目前会进行多轮测试提高效率,应对措施:1、多买或租用硬件增加服务器机组和存储等待春节峰值(算力租赁)2、想办法把运算的效率提升,把问题进行分化处理,节省算力消耗(云计算) 3、进行网络安全及数据安全测试,做应急预案(网安、容灾)
游资线:弹性最大的广告&游戏,规避前期监管方向,所以之前的新易中天光标啥的为啥反而在被大家都懵逼的因赛抢了先,很简单,没被监管盯上的才是炒作的好标的。
二级市场本身就是个认知交换的场所,我只是把个人理解总结出来,也没打算说服谁,大家见仁见智吧,就这。