在最新一期方略中,智谱CEO张鹏围绕一系列AI的基础问题做了解答,并针对AI的核心目标、整体发展脉络以及演进过程进行了细致分析。当被问及算力、数据、算法这三因素哪个最卡住AI发展,哪个突破可能带来进一步发展时,张鹏强调,不同时间段的认知不一样,这是个动态循环、螺旋式上升的过程。
另外,张鹏还分享了自己对于AGI的看法,他指出“AGI能不能实现?只要我们能把这个目标定义好,不太离谱的定义,大概率能实现,时间长短问题。”

以下为访谈原文:
方三文:什么是AI?
张鹏:AI是一个缩写,它叫做Artificial Intelligence,直译过来就是人工智能。最简单直白的一个描述就是,用技术的方法,不管是计算机还是其他的方法,去模拟人类的智能,进而来服务人。
方三文:图灵在1950年的论文《计算机器与智能》里面提出了智能这个概念,后来在达特茅斯会议里面直接定义了人工智能。我们今天谈论的AI,和图灵说的智能或者是1956年提出的人工智能之间有什么关系?
张鹏:如果按照逻辑学或数学的概念来描述,智能是更大的一个圈,人工智能是智能当中的一部分,就是我们怎么去模拟人类的智能。所以现在我们说的AI或者人工智能,其实就是1956年达特茅斯会议上提出来的那个定义。但是,随着时间不断演进,技术和市场的变化,AI的内涵在不断变化。现在的人工智能包含的事情比当年范围更广,但核心目标没变。
方三文:大模型和AI,是一回事吗?
张鹏:大模型只是我们实现人工智能的技术方法中的一种。
方三文:从1950年代到现在,AI发展经历了什么重要的节点?
张鹏:从1950年代到现在大概70多年,不到80年。这几十年来,AI的发展并不是一帆风顺的。大家公认的有三次人工智能浪潮,或者严格划分也可以说现在是第四次。为什么会起起落落?我觉得这也是一个历史的必然规律。一件事情的发展不会永远是增长的曲线,过程中会碰到各种挑战、困难,结合当时的社会经济情况,会有起伏,都很正常。
方三文:1958年提出的感知机是什么?
张鹏:感知机是一个数学上的方法,简单理解就是尝试在数据的空间中找到所谓的“超平面”,把这个空间一分为二,平面的一侧是我们想要的结果,另一侧是不想要的,这其实是个分类问题。感知机就是找到这个“超平面”的一种方法,通过机器设定一个模型,让它通过数据迭代的方式准确定位超平面。它对AI的作用是奠定了一个基础,通过机器学习,让机器从数据中学习的方法去解决具体问题。就像人通过学习解决问题,不断实践,通过数据反馈来迭代求解,而不是设定一个公式算一遍就结束。这个和现在的大模型、深度学习的思想完全一致。可以说它是机器学习的源头、鼻祖。
方三文:1966年MIT开发了第一个真正意义上的聊天机器人,叫Eliza。你看现在大家特别热衷的ChatGPT,都在聊天。为什么人工智能跟聊天有这么密切的关系?
张鹏:我觉得最重要的还是回归到人工智能的本质目标,就是用机器或技术的方法实现类人的智能。但你如何确定你做出来的东西具备类人的智能?它需要一个检验方式。对于人来说最自然的检验方式就是聊天,看我能不能识别出你是不是个人。所以从最开始的出发点,就影响到后续很多工作。
方三文:1973年出了一个莱特希尔报告,提出AI的局限性,导致AI投资下降。当时AI局限性主要指什么?
张鹏:莱特希尔报告里举出的AI局限性有几个方面。首先最明显的是当时整个AI研究界乐观情绪占上风,在那个年代就喊出口号说未来20年要实现通用人工智能。大家的理想很好,目标远大,但路径中困难太大。那时计算机的计算能力很差。第二,当时对数据也没有很好的整理。第三,早期的人工智能方法基本上都基于符号学派,它能解决的问题非常局限,比如数学物理这种能用完备符号系统表达的,稍微扩大到知识、常识就不行了。所以导致大家重新冷静审视AI的投入,引起第一次AI寒冬。
方三文:是不是任何科学的终极目标或愿望,和现在可用的资源、路径总是存在着较大差距?
张鹏:这是一个行业或技术往前发展的源动力。就像物理化学里的渗透压,两边浓度不同会产生渗透动力,来自于不均衡。当你远大目标和当下拥有的资源、技术能达到的效果之间有差距时,这个差距会刺激大家不断研究、找到新方法、投入新资源。这很正常,只是看差距有多大。
方三文:这个渗透压达成的平衡是不是一个相对动态的平衡?
张鹏:是,肯定是动态平衡。就像AI的发展起起落落,为什么第一次寒冬后会有第二波?因为大家重新看到了动态平衡的可能性,有新资源加入,渗透压变化,好像能克服或利用这个差距,于是投入新方法、新资源去做。所以它永远是动态变化的。
方三文:1981年产生了第一台带GPU的电脑。GPU是什么?它今天很热,跟AI是什么关系?
张鹏:GPU跟CPU相对。CPU是计算机的核心处理单元,中央处理器。GPU叫图形处理器,当时专门设计出来帮CPU分担图形处理能力。GPU和AI的关系挺有意思。因为它做图像处理时更偏重浮点计算,CPU偏重整数计算。GPU专门加强了浮点数计算的能力。这一点恰恰跟AI或科学计算类似,科学计算里有大量浮点计算。有些科学家就说,能不能用硬件加速的方法来加速科学计算的算法程序?英伟达敏锐捕捉到这点,黄仁勋当时给很多科学家送GPU卡,唯一要求是把算法在上面跑,收集效果来宣传。
方三文:1980年代末1990年代初,AI又进入第二次寒冬。这个中间发生了什么?和第一次有什么区别?
张鹏:第二次AI起来是因为大家找到了一个新方法——专家系统。在第一代感知机等方法基础上,通过结构化知识表示,让计算机具备像专家一样的专业知识来解答问题。这是第二代人工智能成功的点。但到一定程度后发现,虽然理论上比第一代好,有完备方法论,可以把人类规则用if/else方式写下来交给机器用。但这种方式到一定规模后,知识能不能穷举?比如医疗领域所有病症和治疗方案能不能穷举?把所有知识写出来,可能是天文数字。这是实现成本和周期的问题。第二,虽然计算能力增加了,但巨大量的专家知识输入后,计算量是指数级爆炸增长,仍然不能满足需求。水位永远是动态的,看到计算能力提升投入新方法,加了很多东西后计算能力又不够了。所以是动态互相促进的过程。
方三文:1997年深蓝击败国际象棋世界冠军,有什么意义?
张鹏:这是非常标志性的事件。大家会觉得聊天简单,下棋比聊天复杂,智能水平高很多。如果机器在下棋上胜过人类,说明智力水平到一定程度了。深蓝战胜卡斯帕罗夫的意义就在这。
方三文:后来过了将近20年,2016年AlphaGo击败李世石。AlphaGo和深蓝在技术上不同?
张鹏:实现路径上不一样。深蓝主要是搜索式的方法,在已知棋谱或当前棋盘状态中搜索下一步,可能往前搜索几步,用蒙特卡洛树搜索剪枝,不搜索所有空间,只搜索一部分,预测有限步数,在有限时间内找到最接近最好的解法。AlphaGo也沿着这个路径,但实现方式不同,用了神经网络,用大量数据训练来逼近搜索和预测算法。目标都是搜索空间预测最好方法,但预测方式不同。可以理解为AlphaGo是端到端的方法,深蓝更多是基于规则、一环套一环的工作流水线。
方三文:简单说说深度学习是什么?
张鹏:深度学习指有比较深的算法层次。比如一层神经元或基本计算单元,能解决非常简单的问题。复杂问题就叠很多层,一层一层往上叠,层数越多能模拟的情况越多,计算越复杂。
方三文:就是函数套函数?
张鹏:对,一层套一层,不断垒起来。
方三文:从终端角度看,1995年前后PC普及,2000年前后互联网普及,把机器和数据连起来。这对深度学习发展有关系吗?
张鹏:深度学习需要非常大的计算能力。刚才讲GPU就是因为它浮点计算能力强,所以火起来。计算设备能力的提升是深度学习快速发展的前提条件,算力相当于发动机,越强大输出马力越大。数据相当于燃料,要有优良、大量的燃料才能让发动机跑更长时间,输出更大功率。PC和互联网提供了大量数据。
方三文:Google 2016年发表了Transformer论文,论文发表后短时间内OpenAI发布了ChatGPT,这两个事情有联系吗?
张鹏:肯定有联系。OpenAI真正转做大模型就在这篇论文发布之后。OpenAI 2015年成立,到2018年左右一直不是走这条路,而是走强化学习路线。Transformer论文后不久,2018年开始,以伊利亚为首的科学家果断转向,基于它做GPT相关研究。
方三文:第一个版本ChatGPT出来时你关注了吗?
张鹏:分两个阶段。2018年他们开始做GPT,没引起太大关注,效果不太好。从GPT-2开始有一定关注,学界有讨论,褒贬不一,有人说它只是大力出奇迹,不是算法革新,也有人说是好范式。那时关注到讨论,在国外比较多,国内相对少。得益清华环境,接触国外学术圈方便。真正让大家觉得很牛是2020年GPT-3发布。从GPT-3发布我们就关注到,并且认知到它可能就是未来的范式变化转折点。
方三文:为什么做出这种判断?当时出现什么现象或重要突破?
张鹏:之前我们用传统机器学习方法做NLP任务,包括对话、QA等,一直没做到让人满意。传统NLP方法需要很长算法流水线处理句子,找到结构、名词、动词,理解句子。但GPT出现后,发现不用这么做,只要把句子扔进去,它就能答,而且答得很好。这就是端到端解决,不需要复杂拆解。效果很多时候碾压传统流水线方法。所以大家看到这个方法有优势,觉得这可能就是下个阶段的技术范式。
方三文:DeepSeek-R1的发布,好像颠覆了大家认知。你认为从原理和效果上它有什么突破?
张鹏:DeepSeek引起行业内重大关注,但它还是沿着这条路走,没有像GPT相对于传统机器学习有那样迥异的方法论。它不是方法论级别的,更多是在怎么降低成本、怎么把工程优化,把原来“力大砖飞”简单堆参数量或数据量的逻辑拉回来,告诉大家不用堆那么多,可以在算法上优化,把成本压下来,效果同时提升。更重要的原因是,它在那个时间点用开源方式把技术全部交给社区、研究界、工业界,让大家无偿免费使用最新技术,对当时的市场冲击很大。
方三文:AI发展涉及算力、数据、算法。现在这三个因素哪个最卡住AI发展?哪个突破可能带来进一步发展?
张鹏:不同时间段认知不一样。最早大家觉得算法重要,可以直达AGI。过一段时间模型参数量大,又觉得互联网上能拿到的数据不够了,担心数据用尽、预训练撞墙。然后大家琢磨解决数据问题,到现在数据问题也能解决掉,又担心算力不够。后来技术进步,英伟达拼命生产,算力也能搞到。大家又会觉得算法本身有问题,效率不高,灾难性遗忘等问题解不了,很多人预测Transformer也要被革新。所以它是个动态循环、螺旋式上升的过程。
方三文:你觉得AGI是抽象目标还是具体目标?是最终可以实现还是只能无限接近?
张鹏:AGI定义不像AI那么清晰,它的内涵外延从没有非常明确权威的定义。但AGI能不能实现?只要我们能把这个目标定义好,不太离谱的定义,大概率能实现,时间长短问题。智谱从成立第一天目标就是AGI,我们有自己定义。
方三文:对普罗大众来说,AGI是不是有点像科学中的终极真理,不容易具体化?
张鹏:终极真理很难描绘,因为谁也不知道。但科学界有多种方法描绘,比如图灵测试用行为学定义智能。AGI很多时候大家也用行为学定义,比如有一派说,AI取得人各项能力的平均水平就叫AGI。有了行为定义,倒推技术要做到哪些事情,匹配人的水平。所以跟定义方式有关,实现路径参照这个一步步走上去。
方三文:今天大众对AI争论,有没有超出图灵提出的那九个反问?
张鹏:基本上没有超出那个范围。AI行业70多年,起起伏伏好几次,但问题回到原点,哲学上的思考很早就有了,不是新鲜东西。我们不断演进的是用什么路径、方法去接近当初定义的最高目标。