回复@汤诗语: 搜索引擎缓存得query 才多大, 大模型的有多大,不是一个量级。 国内广大用户对大模型的认知,还停留在简单搜索上,所以的确增加不了成本。 但是那方群众意识到可以多说话, 和真人沟通一样随便聊。 成本才会陡增,那个时候就是收费得时候了//@汤诗语:回复@反反复复炸的老油条:如果直接从缓存里提取答案回复,用电量并不会比传统的搜索引擎高吧?