用户头像
股市小白鼠666
 · 北京  

回复@汤诗语: 搜索引擎缓存得query 才多大, 大模型的有多大,不是一个量级。 国内广大用户对大模型的认知,还停留在简单搜索上,所以的确增加不了成本。 但是那方群众意识到可以多说话, 和真人沟通一样随便聊。 成本才会陡增,那个时候就是收费得时候了//@汤诗语:回复@反反复复炸的老油条:如果直接从缓存里提取答案回复,用电量并不会比传统的搜索引擎高吧?

@汤诗语 :有个问题请教大家,近期看到一个说法,用户问AI一个问题,AI就要消耗多少钱的推理成本,对于AI企业的负担很大,所以腾讯股东可以成天去问千问问题,浪费阿里的成本,反之亦然。但就个人经验,我问AI的绝大多数问题都是日常问题,比如大盘鸡怎么做,护照到期后怎么更新之类的问题,这些问题很显然早...