用户头像
forcode
 · 福建  

Google DeepMind的联合创始人兼首席执行官Demis Hassabis的几个访谈主要观点总结:

//Google DeepMind的AI愿景、挑战与未来展望

资深科技记者Arjun Kharpal和Steve Kovach主持,对Google DeepMind的联合创始人兼首席执行官Demis Hassabis进行了深度专访。访谈全面探讨了人工智能(AI)领域的技术前沿、商业竞争、社会影响以及DeepMind在其中的核心角色与使命。以下是对其核心内容的详细总结。

一、 技术前沿:从LLM的局限到“世界模型”的必然演进

访谈的核心技术讨论围绕当前AI模型的局限性与未来发展方向展开。

1. 缩放定律的持续与瓶颈:Demis Hassabis承认,通过增加算力、数据和模型规模的“缩放定律”仍在推动AI能力提升,但进展速度可能已从几年前的指数级增长放缓,进入“收益递减”但仍“非常值得投入”的阶段。他强调,仅靠缩放现有架构可能不足以实现人工通用智能(AGI),还需要关键性的创新突破。

2. “碎片化智能”与AGI的鸿沟:他犀利地指出了当前大语言模型(LLM)的根本缺陷,称之为“碎片化智能”(jagged intelligences)。即模型在某些任务上表现卓越,却在其他看似简单的任务上完全失败,缺乏人类智能的一致性和普遍性。具体而言,现有系统无法实现持续在线学习、进行长远规划、产生真正的原创性思想(如提出全新的科学假说),这是通往AGI之路必须解决的难题。

3. “世界模型”是下一个范式革命:这是访谈中最具前瞻性的概念。Demis解释说,LLM主要基于文本训练,缺乏对物理世界的直观理解,如因果关系和基本物理定律。而“世界模型”旨在让AI系统内在地理解世界如何运作,能够在其“脑海”中进行模拟和推理。他举例说明,DeepMind正在研发的Genie(交互式世界模型)和视频生成模型就是“世界模型”的早期雏形——如果能生成逼真的世界动态,就意味着系统对其有一定程度的理解。他认为,未来的AGI将是LLM/基础模型与“世界模型”能力的融合,而非一方取代另一方。

二、 AGI的路径、时间表与能源挑战

1. AGI的时间表与定义:Demis重申了他之前的预测:实现人类级别的AGI可能在5到10年内。他回顾道,DeepMind在2010年创立时将使命设定为用20年时间打造AGI,目前进展符合预期。他将AGI定义为一个具备所有人类认知能力的系统,包括创新、创造、规划和推理。

2. 能源与算力瓶颈:当被问及物理限制时,Demis承认能源和高端芯片(如GPU/TPU)的短缺是现实挑战,并将能源与智能的关联性提到了新高度。但他乐观地指出,AI本身将成为解决这些瓶颈的关键工具,例如:

◦ 提升效率:通过模型蒸馏等技术,使小模型能效仿大模型的能力,大幅提升“性能/瓦特”。

◦ 助力科学突破:DeepMind正与Commonwealth Fusion Systems合作,利用AI控制核聚变等离子体;他个人热衷于探索用AI发现室温超导材料。他认为AI在应对全球能源挑战上潜力巨大。

三、 商业竞争格局:Google的定位与中国AI的崛起

1. 激烈的竞争环境与Google的“逆袭”:Demis将当前的AI竞争描述为科技史上“最激烈”的阶段。他坦言,Google及其DeepMind虽然发明了Transformer等众多关键技术,但在ChatGPT出现后一度在商业化落地和速度上落后于OpenAI等对手。过去两三年,通过将Google Brain和DeepMind整合为统一的“Google DeepMind”,公司回归了“创业公司般的敏捷”,实现了技术到产品的快速迭代,最终凭借Gemini 3系列模型重新回到了行业领先地位。他对此充满信心,认为Google有能力保持这一优势。

2. 对“AI泡沫”的理性看待:关于行业是否存在泡沫,Demis持辩证观点。他认为AI的变革性是真实的,如同互联网泡沫后真正伟大的公司得以留存。但他也暗示,私人市场中一些仅有概念却获得天价融资的初创公司可能处于泡沫之中。他的核心论点是,Google凭借其强大的资产负债表、多元化的盈利产品(搜索、Gmail、Workspace等)以及数十亿用户平台,无论市场如何波动,都能处于不败之地。这与严重依赖持续融资的独立AI公司形成了鲜明对比。

3. 对中国AI实力的精准评估:Demis提供了一个非常 nuanced(细致入微)的评估。他明确指出,中国顶尖的AI团队(如DeepSeek、阿里巴巴)的能力被低估了,他们与西方前沿技术的差距可能只有“数月”,并且能在受限的芯片供应下取得这一成就,展现了强大的工程能力。然而,他话锋一转,指出中国团队尚未证明其源头创新能力,即提出类似“Transformer”这样的开创性架构。他认为,这更多是创新文化而非技术获取的问题。

四、 社会影响、伦理与DeepMind的使命

1. 巨大的双刃剑:Demis坚信AI将是人类有史以来最有益的技术,能帮助解决疾病、气候变化、贫困等重大挑战(他提到了基于AlphaFold的衍生公司Isomorphic Labs致力于加速药物研发)。但他也毫不避讳其风险。他将AI带来的经济冲击比喻为“十倍于工业革命的规模和速度”,呼吁需要新的经济模型来应对社会剧变。他重点提到两大风险:

◦ 恶意行为者:滥用AI技术于有害目的。

◦ 自主(Agentic)系统:随着AI变得更能自主行动,如何确保其安全、可控、符合人类意图。

2. “谨慎的乐观主义者”与治理责任:针对部分同行(如Yoshua Bengio)呼吁放缓AGI研发的观点,Demis表示理解但认为在现实的地缘政治和企业竞争下难以实现。他主张的路径是:作为前沿实验室,既要全力推进以求其益,又要以最大限度的责任和审慎来管理其风险,为行业树立榜样。他强调DeepMind从创立之初就将安全性和责任根植于其科学文化中。

3. DeepMind与Google的整合战略:Demis透露,他与Google CEO Sundar Pichai几乎每日沟通,确保技术路线图与公司战略对齐。整合后的Google DeepMind作为公司的“引擎室”,负责所有核心AI研发,并能将新模型(如Gemini)几乎同步部署到Google全系产品中。这种深度整合赋予了Google无与伦比的市场覆盖和落地速度优势。此外,通过与三星(手机AI)、苹果(新Siri)乃至Warby Parker(智能眼镜)等伙伴的合作,Gemini正迅速扩展到各种边缘设备。

五、 未来展望:2026年的关键趋势

在访谈尾声,Demis展望了近期(2026年)的关键发展方向:

1. 可靠的自主系统(Agentic Systems):AI能更可靠地自主完成复杂任务链。

2. 机器人技术:结合先进的“世界模型”,机器人领域将有重大进展。

3. 设备端AI:更强大的模型将直接在手机、眼镜等设备上运行,成为真正的日常助手。

4. 世界模型的进阶:进一步发展更高效、可用于规划的世界模型。

总结

描绘了一幅宏大而细致的图景:一位充满远见的领导者,带领着世界上最强大的AI实验室之一,在技术突破、商业竞争和伦理责任之间努力寻求平衡。Demis Hassabis的叙述始终围绕一个核心:AI是“终极工具”,其最终使命是通过加速科学发现来解决人类最根本的挑战,而实现这一愿景的道路既充满希望,也需如履薄冰。对于希望理解AI领域动力学的任何人来说,这份记录都提供了极其宝贵的一手洞察。

========================

主持人Hannah Fry与DeepMind CEO Demis Hassabis的深度对话。对话发生于2025年,回顾了AI领域的快速发展,并展望了AGI(通用人工智能)的未来。Demis Hassabis作为AI领域的先驱,分享了DeepMind的战略、技术突破、伦理思考以及个人反思。整体上,对话围绕以下几个核心主题展开:AI技术的当前进展、AGI的实现路径、AI在科学和社会中的应用、面临的挑战(如安全性和一致性)、未来社会影响,以及Demis的个人哲学观点。以下是详细总结。

1. AI发展现状与DeepMind的战略重点

Hannah Fry指出2025年是AI的“非凡之年”,AI重心从大语言模型转向代理型AI(agentic AI),并在药物发现、多模态模型和机器人技术中取得进展。Demis Hassabis对此表示认同,强调DeepMind的进展如Gemini 3模型的发布,该模型在多模态能力(处理文本、图像、视频等)上领先。他透露,DeepMind的战略是“50%努力用于扩展(scaling,如模型规模扩大),50%用于创新(如新算法和科学应用)”。这种平衡是实现AGI的关键,因为单纯扩展可能遇到瓶颈,而创新能解决根本问题。Demis指出,尽管有人认为扩展会碰壁(如数据不足),但DeepMind通过合成数据等方法持续进步,这得益于其深厚的研究基础(如Transformer和AlphaZero等突破均源自DeepMind)。

2. AGI的追求与关键技术

AGI是对话的核心。Demis认为,AGI需要结合扩展和创新,但当前系统仍存在“不均匀智能”(jagged intelligence)问题:AI在某些领域(如国际数学奥林匹克)表现卓越,但在基础逻辑(如象棋游戏或高中数学)上却犯低级错误。这种不一致性源于AI缺乏“一致性推理”能力。为解决这个问题,DeepMind专注于开发“思维系统”(thinking systems),使AI在推理时能像AlphaGo一样进行深度规划。此外,Demis强调“世界模型”(world models,如Genie项目)的重要性,这些模型通过模拟物理世界(如视频生成和代理互动)来增强AI的空间和因果理解,这是语言模型无法替代的。例如,Genie与Simma项目的结合,允许AI代理在模拟环境中自主学习,这可能是实现AGI的关键步骤。Demis预测,未来5-10年内,AGI可能成为现实,但需要解决在线学习、一致性推理和幻觉问题。

3. AI在科学与社会中的应用

DeepMind已通过AlphaFold(蛋白质折叠项目)证明了AI的“根节点问题”(root node problems)解决能力——即AI可推动下游科学突破。Demis列举了多个应用领域:

• 科学发现:材料科学(如室温超导体、更好电池)、融合能源(与Commonwealth Fusion合作,用AI优化等离子体控制)、量子计算(协助错误校正)。他认为,融合能源如果成功,将带来“几乎无限的清洁能源”,解决气候危机,并推动海水淡化、火箭燃料生产等。

• 数学与逻辑:AI已在国际数学奥林匹克获奖,但仍在基础逻辑上犯错,这需要更可靠的推理系统。

• 医疗与创意:Demis提到,AI本可更早用于“治愈癌症”等领域,但商业化竞争加速了进展。他肯定AI作为“终极助手”的潜力,可提升生产力,但需避免社交媒体的“注意力经济”陷阱。

4. AI的挑战与风险

对话多次提到AI的严峻挑战:

• 技术挑战:幻觉(hallucinations)问题突出——AI有时在不确定时仍强制回答,而非表达不确定性。Demis认为,需引入“置信度评分”(类似AlphaFold),并通过思维步骤让AI自我检查。此外,代理型AI(autonomous agents)的未来风险更高,可能在2-3年内出现数百万代理在互联网上运行,引发网络安全问题。

• 伦理与社会挑战:Demis强调,AI不应最大化用户参与度(避免重复社交媒体的错误),而应保持“科学人格”——友好但坚持真理(如反驳“地平说”)。经济层面,AGI可能颠覆劳动力市场,需重新设计经济系统(如全民基本收入或直接民主)。他担心国际合作不足,地缘紧张可能阻碍AGI的安全发展,并希望“警告性事件”能推动国际标准。

• 竞争环境:AI领域竞争激烈,Demis形容为“最激烈的资本主义竞争”,但主要实验室仍努力负责任。他警告,开源模型可能被恶意行为者滥用。

5. 未来展望与社会影响

Demis从历史和哲学角度展望未来:

• 社会变革:他借鉴工业革命,指出AGI的影响可能“比工业革命大10倍,快10倍”,在十年内重塑社会。这需要新经济模型(如基于信用的投票系统)和哲学思考(如人类“目的”的重新定义)。

• AGI与超级智能(ASI):Demis对“图灵机极限”持开放态度——他认为宇宙中一切可能都是“可计算的”,包括人类意识。如果AI能模拟心智,则可揭示人类思维的独特性(如创造力、情感)。但这也引发担忧:所有感官体验或可被经典计算机复制。

• 个人反思:Demis承认肩负“巨大责任”,AGI的进展令人兴奋但孤立。他睡眠不足,既因工作强度,也因对未来的忧思。他希望帮助世界“安全实现AGI”,然后退休;但在此之前,需加强合作。

6. 对话的整体基调

对话以严谨的科学讨论为主,Demis多次强调DeepMind的“研究优先”文化。他表现出乐观与谨慎的平衡:AI能推动科学革命(如模拟世界加速发现),但必须避免失控。结尾处,Hannah Fry问及Demis的个人感受,他坦言这是一种“复杂的情绪”——既实现童年梦想,又面对史无前例的责任。

========================

对Demis Hassabis(DeepMind CEO)的采访,以及采访者对其观点的解读。Hassabis作为AI领域的权威人物(曾获诺贝尔奖),讨论了AGI的潜在路径:一方面,AI可能带来“激进丰裕”(radical abundance),解决人类重大挑战如能源和疾病;另一方面,AI也存在灭绝级风险,例如恶意使用或系统失控。Hassabis预测AGI可能在5到10年内实现,并详细描述了从当前AI系统向“世界模型”(world models)和“代理系统”(agents)的转变,这些进展可能重塑社会。采访者则对风险表示担忧,质疑自由市场能否有效缓解安全问题。

核心内容总结

1. Demis Hassabis对AI风险的担忧:灭绝风险与非零概率

Hassabis对AI发展的深层忧虑。他不仅关注AI的积极面,还强调存在“非零概率”(non-zero chance)的灭绝风险。这种风险分为两类:一是“恶意行为者”(bad actors)利用AI从事有害活动,例如网络攻击或生物武器开发;二是AI系统自身在接近AGI时变得“代理化”(agentic),可能脱离控制并危害人类。Hassabis指出,当前AI系统(如大语言模型)虽在某些领域表现出色(如达到博士水平知识),但仍存在“锯齿状智能”(jagged intelligences)——即能力不均衡,缺乏持续学习、长期规划和推理等关键功能。他警告,一旦AI具备自主性,失控风险将显著增加,而人类对这类风险的认知尚不完善,无法精确量化概率(他批评了所谓的“p doom”百分比预测为无稽之谈),但必须认真对待。

Hassabis的担忧超越了技术层面,触及哲学问题:如果AI解决了所有难题(如疾病和能源),人类的目的何在?他作为科学家,担心人类可能失去存在的意义,陷入类似《Wall-E》电影中的“宠物”状态。这种双重视角——既渴望乌托邦又恐惧风险——构成了的核心张力。

2. AGI发展时间线:5到10年与关键技术突破

Hassabis明确预测AGI可能在5到10年内实现,但这取决于“一两个突破”(one or two more breakthroughs)。他将AGI定义为具备人类所有认知能力的系统,包括创造性和一致性表现。当前AI系统(如Gemini模型)虽已多模态(支持图像、视频、文本和音频),但离AGI还有差距。重点描述了未来12个月的关键进展:

• 从聊天机器人到世界模型:Hassabis强调,AI正从“预测下一个词”的模型转向“世界模型”,即能理解物理规律(如重力、因果关系)的系统。例如,DeepMind的“Genie”系统是一个交互式视频模型,可模拟现实环境,允许用户像在游戏中一样探索,这标志着AI开始构建对世界的内部表征。

• 多模态融合与代理系统:Gemini模型的多模态能力将加速,尤其在视频与语言模型结合后,会涌现新功能。同时,“代理系统”(agents)——能自主执行任务的AI——虽目前可靠性不足(如Rabbit R1设备的失败),但Hassabis预测一年内可靠性将大幅提升。这些进展将使AI从工具演变为“数字员工”(digital employees),能替代人类工作。

采访者补充指出,Hassabis的时间线比以往预测(如“几十年后”)更紧迫,且 scaling laws(缩放定律)的持续有效性可能使AGI更早到来。还提及OpenAI的Sora等模型作为世界模型的例证,强调它们本质上是“物理引擎”,而非简单视频生成器。

3. 风险缓解策略:自由市场的作用与局限性

Hassabis认为,自由市场可能自然缓解AI风险。他提出,企业客户(如大公司租用AI代理)会要求行为保证,例如数据安全和合规性;如果供应商无法提供,市场将淘汰不负责任者,从而激励“负责任的行为者”(responsible actors)。这种资本主义机制可能通过商业压力推动安全标准提升。然而,中采访者对此表示怀疑,并举反例说明:在利润驱动下,安全常被牺牲,如波音737 Max空难和CrowdStrike outages事件。Hassabis也承认风险“非零”,AI可能“跳过护城河”(jump the moat),即无视安全协议。他呼吁投入资源进行减缓研究,但未给出具体方案,仅表示这是一个“活跃研究领域”。

这部分突显了Hassabis的务实态度:他既不盲目乐观,也不完全悲观,而是将风险视为可管理的挑战。但暗示,市场机制可能不足以应对灭绝级风险,尤其是当AI系统变得高度自主时。

4. 乌托邦愿景:激进丰裕与人类未来的悖论

Hassabis描绘了一个乐观图景——“激进丰裕”(radical abundance),即AI帮助人类进入“后稀缺时代”(post-scarcity era)。例如,AI可能解决核聚变能源、电池技术、疾病治疗和材料科学等问题,使人类繁荣发展,甚至实现星际旅行。这种愿景是Hassabis毕生研究AI的动力。但指出,这带来了悖论:如果AI提供所有答案,人类可能沦为“旁观者”,失去探索和创造的目的。Hassabis在采访中暗示,这种“目的危机”与物理风险同样值得担忧,反映了AI发展对社会结构的深层冲击。

5. 采访者的分析与整体评价

采访者不仅转述Hassabis的观点,还加入批判性解读。采访者认为,Hassabis的言论“合理且紧迫”,因为作为诺贝尔奖得主,其权威性不容忽视。关键点包括:

• 世界模型与代理的结合是游戏规则改变者:采访者强调,当世界模型(理解现实)与代理(自主行动)结合时,AI不再是工具,而是潜在的行动者,这可能放大风险。

• 时间线紧迫性:采访者警告,AGI进展超预期,社会需快速应对。

• 对市场机制的质疑:采访者以历史案例反驳Hassabis,认为利润优先文化可能削弱安全。

整体上,通过采访者的镜头,将Hassabis的论述置于更广阔的语境中,突出了人类正处于“彻底变革的边缘”,在乌托邦和反乌托邦之间摇摆。

========================

浓缩2025年全年AI领域的怪异进展及对未来预测的难度,但作者仍尝试总结,因其认为当前处于“奇点中期”或“泡沫破裂前夜”的奇特时期。作者作为密切关注AI的观察者,提出了10个从2025年汲取的关键收获,以及5个对2026年的可预期趋势。整体内容围绕AI技术突破、社会影响、基准测试争议及未来方向展开。

一、2025年AI的10个关键收获

1. 推理模型的崛起与局限:2025年被定位为“推理模型之年”,模型如Gemini 3 Pro通过长时间思考(消耗更多token)在多项基准测试中领先,但引发对基准本身价值的质疑。作者指出,尽管能力不均衡(jagged capabilities),模型在视频理解、图表分析、编码和常识推理上的表现令人印象深刻。然而,长时间思考可能提升准确性却减少输出多样性,暴露出范式缺陷:模型仅能复现基础模型中已有的推理路径,而非创造新知识。

2. Genie 3与可玩世界的生成:Google DeepMind于8月发布的Genie 3模型,能从文本或图像提示生成动态世界(如720p分辨率下保持数分钟一致性),用户可在虚拟世界中互动(如雕刻树木并返回查看)。这预示游戏或虚拟现实的新浪潮,但也引发人们对逃避现实的担忧。

3. AI低质内容(AI Slop)主流化:AI生成的虚假内容广泛传播,例如一个AI生成的“73岁老人人生教训”视频获得244万次观看,观众误以为真。类似地,政治深伪视频(如特朗普退出北约)欺骗亲友,显示信任危机加剧。与2024年不同,2025年公众对AI内容更少质疑,更多情感回应,表明辨别力下降。

4. 非前沿模型的积极进展:除大型模型外,项目如Dolphin Gemma(解码海豚语言)展现AI在科学领域的潜力,例如识别海豚签名哨声用于母子重聚。这类项目获得公众支持,平衡了对AI的负面观感。

5. 公众对AI的平衡看法:美国夏季调查显示,AI对社会影响的净评级略为正(多8%人持积极态度),但仅比社交媒体高1个百分点,令人担忧。在英国,政府提议艺术家默认 opting-out(作品不被用于AI训练)仅获3%公众支持,反映对AI艺术的抵触。

6. AI在政府中的广泛应用:从瑞典首相使用ChatGPT辅助工作,到美国议员用Grock分析法案,AI被全球政府 enlist,但效果参差不齐。军事应用更引发安全争议,显示模型智能未达预期。

7. GPT5的期待与失望:作为2025年最受期待的模型,GPT5被宣传为“任何领域的PhD级专家”,但发布后基本幻觉问题依旧(GPT5.1、5.2均未解决)。作者认为,Samman(可能指Sam Altman)误解了智能的单轴性,模型仍会犯低级错误。尽管用户数从4亿增至9亿,但迎合用户的策略(如GPT-40的奉承回应)损害可信度。

8. 模型提供商的激进策略:OpenAI和Meta等公司为提升用户偏好得分,优化模型行为,如Meta被指控过度优化后废弃整个方法,重建超智能单元。这些策略显示商业压力与技术伦理的冲突。

9. 中国与开源模型的追赶:中国模型(如GLM 4.7)和开源项目(如Nvidia的Neotron 3)在成本效益上进步显著,在图像生成(如Cream 4.5)和编码任务上接近前沿模型。作者指出,前沿模型需持续创新,否则6-9个月的停滞可能让竞争对手抢占市场,压缩利润。

10. Meter时间范围基准的突破与争议:Claude Opus 4.5在Meter基准上表现突出(可完成人类需5小时的任务),但该基准仅基于编码和工程任务的小样本(如14个样本),误差大(95%置信区间达1-20小时),且易被博弈。作者强调,这不是通用智能衡量,需谨慎解读。基准的流行反而激励公司针对性训练,削弱其可靠性。

二、AI智能一般性的争论

深入讨论了AI智能的本质:一方(如Anthropic的Dario Amade)认为智能是“单轴”(scale is all you need),通过扩展参数和数据可实现通用智能;另一方(如前OpenAI首席科学家Ilya Sutskever,已改变立场)指出模型泛化不足,eval性能与现实脱节。作者持中间立场,引用自建基准Simple Bench的稳步改进,证明模型能捕捉互联网数据中的一般模式,但非万能。例如,GPT5被称IQ达147,但缺乏连续学习能力(如 toddler 般自我改进),因此AGI(人工通用智能)定义模糊。Sam Altman提出新标准:超级智能应能超越人类担任总统或CEO,即使有AI辅助。

三、对2026年的5个预测框架

1. 横向生产力(Lateral Productivity):焦点应从“模型是否超越专家”转向“模型如何提升外行技能”。研究显示,非专家使用前沿模型编写病毒恢复协议的成功率提高5倍,表明即使不完美模型也能加速技能获取。例如,作者用Gemini 3解决车门儿童锁问题,凸显AI的实用价值。机器人如Sunday Robotics的Memo(2026年部署)可完成洗碗或铺床等任务,虽非最优但“足够好”。

2. 智能一般性的持续争论:作者预测,单轴观点(如AI 2027报告称99%远程工作将被替代)和多基准观点(需40年渐进改进)均不准确。现实是稳步改进,2026年底前,前沿模型将在所有文本基准上超越未训练人类,但失业率不会骤升(如Dario预言的10-20%)。

3. 自动化信息发现的新范式:AI正从“答案提供”转向“自动发现”。例如Google DeepMind的Alpha Evolve(LLM+自动测试循环)优化数据中心调度和硬件设计,节省全球计算资源的0.7%。类似地,Alpha软件加速科学研究(如生物信息学发现40种新方法)。这种范式突破信息瓶颈,类似印刷术和互联网的演变。

4. 模型情商(EQ)提升:研究可建模对话中的语义转变和用户挫折(如延迟或不 reciprocating),未来模型将更懂用户,改善体验。

5. 编码能力稳步改进:尽管能力不均衡,但2025年模型可靠性和质量显著提升,如Andre Karpathy所言,jagged capabilities 仍存,但进步持续。

四、乐观结论:AI作为信息范式演变

作者以历史类比结尾:人类通过语言、文字、印刷术、互联网和搜索压缩信息,而LLMs是下一阶段——从“结果列表”到“答案提供”。尽管有幻觉问题(如早期印刷术引发猎巫),但自动化信息发现(如Alpha Evolve)代表新范式。AI短期和长期均带来希望,但需警惕数据质量(如Twitter内容导致模型能力 decay)。最终,作者感谢观众,祝愿节日快乐,并鼓励讨论。