21世纪经济报道记者 闫启 北京报道
3月31日,由21世纪经济报道联合清华大学经济管理学院高管教育中心主办、星能资产协办的“科技重构价值——2025年股权投资春季论坛”,在清华大学成功召开。本次论坛汇聚宏观政策领域与股权投资行业专家,大健康与科技产业的顶尖学者、资深投资人、精英企业家。
论坛上,见朴基金合伙人胡建谅带来“DeepSeek加速迈向通用AI时代”的主题演讲,他以深厚的行业洞察详细拆解了DeepSeek现象背后的技术密码、其对AI产业链的颠覆性影响,以及由此衍生的未来投资机遇。
揭秘DeepSeek“快”与“省”背后的技术三重奏
DeepSeek为何能在短时间内产生如此巨大的冲击力?胡建谅将其归结为技术创新、成本效率和开放生态的合力。
首先,核心在于其架构上的两大技术创新:混合专家模型(MOE)和多头潜在注意力(MLA)。
胡建谅用生动的比喻解释了MOE的原理:“就像家里孩子皮肤过敏,你首先想到的是找皮肤科和免疫科的专家,而不是把整个三甲医院所有科室的医生——包括骨科的——都叫来问诊。” MOE通过一个“门控网络”智能地选择调用模型中与当前任务最相关的“专家”部分进行计算,而非激活整个庞大的模型。这极大地提高了运算效率,节省了宝贵的GPU算力,并缩短了响应时间。虽然MOE并非全新概念,但DeepSeek无疑将其运用得更为高效。
如果说MOE是“选对人”,那么MLA则是DeepSeek的独创“组合拳”,解决了“如何高效问对人”的问题。胡建谅再次打比方:“现场两百多人,我要一个个问大家晚上想吃什么,可能三个小时都收不完信息。但如果我给每一排指定一位组长,由组长快速收集反馈,效率就截然不同。” MLA通过优化注意力机制,减少了对键值(KV)缓存的重复计算,显著降低了显存消耗,尤其在处理多用户并发请求时效率优势明显。这正是DeepSeek能够支撑海量用户、同时保持较低运行成本的关键所在。
第三重武器是强化学习(RL)的应用。胡建谅认为,未来的AI必然要走向终端、走向应用场景,与物理世界和用户进行反复互动。强化学习正是实现这一目标的关键路径。“就像训练机器臂抓杯子,与其编写一套极其复杂的固定算法,不如让它在仿真环境里反复尝试抓取各种形状的瓶子、杯子,它自然就能学会。” 通过与环境的互动试错,AI可以从未标注数据中学习,不断优化自身能力。DeepSeek在后训练阶段大规模应用强化学习,进一步提升了模型的智能水平和适应性。
这三项技术的结合,共同造就了DeepSeek“低成本、高性价比”的核心竞争力。胡建谅坦言,尽管DeepSeek仍然基于谷歌开创的Transformer架构(期待未来有颠覆性创新出现),但其在现有框架内的优化已足够亮眼。
更重要的是,DeepSeek选择了开源。这无疑是其引爆行业热情的另一大催化剂。胡建谅指出:“开源意味着整个生态都起来了。过去我们大多在英伟达的CUDA生态上构建应用,DeepSeek的开源为我们提供了一个新的选择,可以在它的生态上开发多样化的应用和服务。” 这不仅打破了单一技术生态的垄断,也极大地激发了国内AI应用创新的活力。
至于外界提及的“蒸馏”OpenAI模型(即通过大量问答学习先进模型的输出模式),胡建谅认为这是行业普遍做法,旨在加速模型训练、提高效率,无可厚非。“现在也有公司在蒸馏DeepSeek,大家一起进步。”
重塑产业链:DeepSeek效应下的硬件新格局与“卡脖子”之痛
DeepSeek的成功,如同一块投入平静湖面的巨石,其涟漪效应正迅速扩散至整个AI产业链,尤其是在硬件层面,引发了一系列深刻变革和新的投资思考。
DeepSeek的高效表现,特别是其在边缘端(边端)部署的可能性,极大地提振了市场对国产算力的信心。胡建谅观察到:“DeepSeek出来后,我们所有的国产算力厂商纷纷表态要适配。这不仅意味着云端,更意味着边端计算将全面迎来国产替代的浪潮。” 过去,算力中心普遍倾向于采购英伟达GPU,但DeepSeek的出现证明了国产方案的可行性与潜力,为国内GPU厂商打开了前所未有的发展空间。对于早已布局GPU赛道的投资人而言,这无疑是一个积极信号。
与GPU紧密相关的,是被称为“内存墙”的高带宽内存(HBM)技术。胡建谅用一个形象的例子说明了HBM的重要性:“普通笔记本电脑打开网页很快,但打开大型游戏就可能卡顿,因为游戏数据量(视频、动态效果)远超网页。” AI大模型训练和推理同样面临海量数据吞吐的挑战,传统DDR内存带宽已捉襟见肘。HBM通过堆叠DRAM芯片,实现了远超传统内存的带宽(可达30-50倍以上),是支撑高性能计算的关键。然而,全球HBM市场目前被三星、海力士、美光三家寡头垄断(合计份额超99%),中国在此领域几乎一片空白。“前些年我们一直关注GPU,但HBM怎么办?” 胡建谅的发问直指这一“卡脖子”的痛点。DeepSeek的火爆,更凸显了突破HBM国产化瓶颈的紧迫性,相关产业链的投资价值日益凸显。
随着数据中心内部数据传输速率要求不断提升,光电共封装(CPO)和多光纤连接器(MPO)技术正成为新的研发热点。CPO旨在将光模块与交换芯片等集成封装,缩短电信号传输距离,降低功耗和延迟;MPO则提供了高密度的光纤连接解决方案。胡建谅指出,光是目前最快的数据传输介质,如何高效地进行光电转换和数据交换至关重要。目前,全球仅有博通等少数公司开始量产相关产品,英伟达对此也高度关注。中国虽然起步稍晚,但已有科研团队和企业开始布局研发。“这不仅仅是国内在布,美国也刚刚开始。” 这意味着在该前沿领域,中国仍有追赶甚至弯道超车的机会,相关技术的突破将对未来AI算力集群的性能产生深远影响。
此外,液冷散热、特种机柜等支持性基础设施,也随着AI算力需求的增长而水涨船高,成为产业链上值得关注的环节。
AI落地场景与终极算力之源
DeepSeek的成功,不仅在于其技术本身,更在于它加速了AI走向通用、走向应用的步伐。胡建谅强调,未来的AI投资,必须紧密围绕应用场景的落地展开。
DeepSeek为代表的大模型,如同为机器人装上了更聪明的“大脑”。然而,真正的挑战在于如何将这个“大脑”与负责运动控制的“小脑”(控制算法)以及“本体”(机械结构)完美融合。胡建谅认为,中国在机器人的小脑和本体方面已达世界一流(“能翻跟头、跳舞”),但在大脑及其与全身的协同方面仍有差距。未来机器人的发展,一方面需要不断提升大模型的智能,另一方面则急需找到真实的落地场景(他倾向于先从B端工业场景突破,如防爆巡检机器人),并通过与用户和环境的持续交互(强化学习)来不断进化。
除了机器人,AI与各行各业的结合(AI+)将是大势所趋。无论是AI+医疗、AI+金融、AI+教育,还是AI+设计、AI+内容创作,都蕴藏着巨大的商业机会。关键在于找到合适的切入点,利用AI解决行业痛点,提升效率或创造全新价值。
展望更长远的未来,支撑AGI所需的巨大算力,可能需要依赖于计算范式的革命性突破。胡建谅特别提到了两个方向:量子计算和可控核聚变。
在量子计算领域,他认为基于“离子阱”的技术路线因其稳定性和可扩展性,可能是更接近商业化的方向之一。而在被誉为“人造太阳”的可控核聚变方面,除了国家主导的大型托卡马克装置(如中国聚变公司参与的项目),他更关注一些由初创公司推动的、装置规模更小、可能更快实现商业化的“场变(Field-Reversed Configuration, FRC)”等技术路线。他透露,OpenAI等科技巨头已开始投资此类聚变初创公司,目标是在2028年左右实现关键里程碑。这些看似遥远的领域,实则关系到AI发展的终极能源和算力保障,值得具备长远眼光的资本提前关注。
0 条