人工智能的分叉路口与泡沫争议:张军平教授的深度解读
一、人工智能研究路径的“倒金字塔”困境
1.1 自然进化 vs. 当前AI范式:感知与认知的顺序颠倒
张军平教授在《人工智能的边界》一书中尖锐指出,当前AI研究呈现“倒金字塔”结构,与人类自然进化路径背道而驰。人类智能的进化遵循“感知先行,认知后至”的金字塔结构:早期人类通过视觉(占比80%)、听觉、触觉等感知器官认识世界,形成对环境的基本理解后,才逐步发展出语言和抽象认知能力。而以GPT为代表的主流大模型,却直接从“认知”层面切入,核心基础是自然语言处理(NLP),这相当于跳过了坚实的感知底座,形成了“头重脚轻”的倒金字塔结构。
> “现在的人工智能可能找到了一条与自然进化不太一样的路。研究模式是反的,先从认知能力开始。这种路径下形成的智能形态肯定会和自然界进化出来的结果不太一样。”
1.2 倒金字塔结构的隐患:高能耗与智能体缺陷
张军平认为,这种“倒金字塔”模式可能导致两大核心问题:
- 难以培育真正类人智能体:“这条路线最终很有可能培育不出一个真正像人的智能体,有可能会越来越像机器。”
- 高能耗的根源:“现在的人工智能大模型极度耗能,可能也是由倒金字塔结构的研究模式导致的。” 由于缺乏底层感知能力的支撑,模型不得不通过巨量数据和算力强行模拟认知,导致能源消耗居高不下。
二、“Scaling Law”范式与AI泡沫争议
2.1 Scaling Law的现状与局限
张军平认可Scaling Law(规模定律)作为当前AI发展的基本共识,即模型性能提升依赖于巨量数据、超大规模模型和强大算力(GPU/显卡) 的三重叠加。但他同时指出,这一范式的局限性已逐渐显现:
- 边际效益递减:如36氪报道,OpenAI的GPT-5相比GPT-4虽消耗更多数据和资金,但性能提升“微不足道”,印证了Scaling Law的效用正在减弱。
- 资本投入的不可持续性:OpenAI预计到2029年将消耗1150亿美元,且与甲骨文、微软的云计算协议需每年支付数百亿美元费用。这种“循环融资”模式被批评为“泡沫前夜的信号”。
2.2 AI泡沫的可能性与触发因素
张军平明确表示AI泡沫“发生的可能性概率比较高”,其核心触发因素包括:
1. 资本耐心不足与长周期矛盾:GPT-6、GPT-7等下一代模型研发需十年甚至二十年才能落地,但投资人期望两年内看到回报,导致资金投入意愿下降。
2. 连锁反应风险:资本投入减少→公司无力购买算力/硬件→模型优化停滞→行业整体萎缩。“资本投入减少后,公司也没有办法为优化模型而购买更强的算力或硬件,届时就有可能会一连串的连锁反应。”
3. 实际应用能力与预期差距:尽管大模型在语言任务上表现出色,但在机器人紧急反应、空间智能等关键能力上仍远逊于人类。“机器人可能有些动作如空翻跟头比人强,但大部分的能力是不如人的。”
谷歌CEO桑达尔·皮查伊也公开警示:“人工智能投资热潮存在‘非理性因素’,泡沫一旦破裂,没有公司能幸免。” 高盛等机构进一步指出,AI泡沫破裂可能拖垮数据中心产业链,波及英伟达、亚马逊等巨头。
三、空间智能:AI未来的新方向?
面对倒金字塔困境和泡沫风险,顶尖科学家如杨立昆(Yann LeCun)、李飞飞等人呼吁转向“空间智能”(Spatial Intelligence)。这一方向强调:
- 强化感知能力:通过视觉、触觉等多模态感知技术,让AI理解物理世界的三维空间关系。
- 具身智能(Embodied AI):结合机器人实体,在真实环境中学习交互与决策,而非仅依赖文本数据。
张军平虽未直接提及“空间智能”术语,但其对“感知底座”的重视与此高度契合。他建议AI研究应回归自然进化路径,夯实感知基础,才能构建更稳健、低能耗的智能系统。
四、张军平教授的核心观点总结
1. 研究路径反思:当前AI“倒金字塔”结构违背自然进化规律,需重视感知层研究以构建坚实基础。
2. 泡沫风险预警:资本短视与技术长周期矛盾可能导致泡沫破裂,高能耗和边际效益递减加剧风险。
3. 应用务实导向:通用人工智能短期内难以实现,应聚焦AI在各行业的赋能应用,“还有很多事可做”。
4. 科研理念倡导:“自由而无用”的探索精神是原创性突破的关键,避免过度功利化和可行性束缚。
五、未来展望:在争议中寻找平衡
2025年下半年的人工智能正处于关键转折期。一方面,OpenAI等企业仍在通过IPO和巨额融资维持Scaling Law范式的推进;另一方面,学界对空间智能、具身智能的探索逐渐升温。正如张军平所言,《人工智能的边界》一书旨在“给大家一点宽心”——AI的发展虽有边界和挑战,但探索从未停止。未来或许需要在“大模型规模化”与“感知基础研究”之间找到平衡,在资本逐利与长期科研投入之间寻求妥协,才能推动AI技术真正迈向可持续、普惠的发展道路。
当前时间(2025年11月24日)正值AI泡沫争议白热化之际,张军平教授的观点为我们提供了冷静审视技术狂热的重要视角。无论是科研人员、投资者还是普通公众,理解这些深层矛盾与潜在风险,都将有助于更理性地拥抱人工智能时代的到来。