破局 Agent 下半场:云端拉开序幕,端侧才是「黄金矿区」

近几个月,OpenClaw项目以其惊人的热度,成为了人工智能领域的焦点。它不仅在开源社区获得了超越Linux的历史性关注度,更引发了全行业的迅速跟进。然而,当我们拨开现象级的热潮,深入探究其技术内核时,一个更具战略意义的图景开始浮现。
3月22日,端侧智能北京市重点实验室关于智能体的创新研讨会在清华科技园召开。中国人民大学的林衍凯副教授在其演讲《从OpenClaw看智能体技术发展趋势》中,提出了一个深刻的洞察:OpenClaw的爆发,并非源于底层算法的革命性突破,而是一场由卓越的工程化整合带来的“可用性革命”。它通过巧妙的系统设计,让强大的云端大模型能力跨过了“可用阈值”,使得普通用户也能便捷地驾驭AI智能体(Agent)。
林衍凯将OpenClaw比作“智能体操作系统的早期雏形”,这个比喻恰恰揭示了我们当前所处的历史节点。正如早期的Linux为后续的软件生态奠定了基础,OpenClaw也为我们指明了Agent时代的未来形态。但更重要的是,它也集中暴露了当前技术路径的“三大核心瓶颈”:不可持续的成本、不可靠的长任务执行能力、以及难以规模化的个性化与进化机制。
这三大瓶颈,共同将未来的技术焦点和商业价值指向了一个明确的方向——端侧智能。本文旨在阐述,为何说在即将到来的Agent时代,真正的护城河与最具爆发潜力的投资机遇,将建立在端侧智能的基石之上。
云端Agent的“阿喀琉斯之踵”:成本与可靠性的双重困境
当前以OpenClaw为代表的Agent范式,其核心驱动力依然是部署在云端的巨型模型,如Claude Opus或GPT系列。这种“纯云端”架构虽然在短期内展示了惊艳的能力,但其内在的脆弱性也暴露无遗。
首先是无法承受的Token成本。林衍凯在演讲中引用了一组惊人的数据:
这是我截的OpenClaw在OpenRouter上的Token消耗量,一周就消耗了4.73T,整个消耗量比后面的所有加起来都多……让 OpenClaw 用Opus 4.6跑每天需要约 10 美元,即便使用GPT-5.4也要 5.5 美元。”

这一数据揭示了一个残酷的现实:Agent的自主探索和多步推理,本质上是一个高消耗的过程。当用户规模从目前的极客圈层扩展到千万甚至上亿级别时,现有的云端算力基础设施将不堪重负,运营成本将呈指数级增长。林衍凯判断:“假设我们未来用户增长十倍、百倍,目前的算力是支撑不了的。” 对于任何寻求规模化商业闭环的企业而言,这都是一个不可持续的模式。
其次是任务执行的“可靠性悬崖”。 Agent的真正价值在于自主完成复杂、长周期的任务。然而,大部分云端大模型在这一关键能力上表现出明显的局限性。林衍凯引用了一组数据:
“在只要求 50% 成功率的情况下,像 Claude Opus 4.6 甚至能执行长达 10 小时的任务;但如果我们将可靠性要求提高到 80%、90% 甚至 95%(这是日常商用的底线),即使是Opus 4.6可能完成的任务时长也会从10个小时降到1个小时。我们普通人没有那么多钱,或者算力有限的情况下,能接触到的模型可能就能做几分钟的任务。”
我们可以看到,系统里真正干活的、为我们提供良好体验的,其实是它接入的 Claude Opus 4.6 或 GPT-5.4 等基座模型 。我认为,OpenClaw 对于大模型的意义,有点类似于浏览器之于互联网——它本身不创造内容,但它重新定义了用户的交互方式,让非技术背景的人也能顺畅地将大模型应用到工作中 。

这意味着,当前看似强大的云端Agent,在面对严肃的商业或生产力场景时,其可靠性会急剧下降。对于普通用户而言,能够稳定完成的任务可能只有“几分钟”的长度。这种体验上的不确定性,是阻碍Agent技术从“演示可行”走向“大规模部署”的最大障碍。
端云协同:通往规模化Agent时代的唯一可行路径
面对纯云端路线的困境,林衍凯教授明确指出了未来的发展方向——端云协同。这并非简单的技术取舍,而是一种必然的架构演进,也是端侧智能价值爆发的起点。
“从短期的角度,端云结合是一个可能的路径……可行的是什么呢?由云端完成任务拆解,将长任务分解为几分钟的子任务,交给端侧执行,再由云端验证。”

这一模式的核心思想,是将任务进行智能分工:
云端(大脑):利用其强大的全局规划和复杂推理能力,负责长程任务的战略分解、意图理解和最终结果的校验。
端侧(手脚):利用其低延迟、高隐私、低成本的特性,在手机、PC、汽车等设备上,负责执行被拆解好的、具体的、短周期的子任务。
这种架构的优势是显而易见的:
成本效益:将海量的、重复性的执行任务从昂贵的云端剥离,转移到用户侧几乎“免费”的闲置算力上,极大地降低了服务提供商的运营成本,使Agent服务的规模化成为可能。
可靠性提升:林衍凯指出,“一旦长任务被分解为十步以内的子任务,端侧模型就可以胜任。” 通过将复杂任务“拆短”,可以有效规避端侧模型长程执行的可靠性衰减问题,从而大幅提升整体任务的成功率。
用户体验优化:端侧执行意味着更低的延迟和更强的隐私保障。用户的个人数据无需上传云端即可被处理,这在数据安全日益重要的今天,将成为关键的竞争优势。
林衍凯团队与面壁智能等合作发布的AgentCPM系列工作已经证明,“在特定垂直场景下,端侧小模型完全能达到与云端大模型相近的效果”。随着模型能力的“密度法则”(Densing Law)持续生效,今天需要云端处理的任务,在不久的将来就可以下沉至端侧,端侧智能在协同架构中的角色将愈发重要。
三大支柱构建未来生态
端云协同架构的确立,意味着投资的焦点需要从单一的云端大模型竞争,转向一个更加立体和丰富的生态系统。端侧智能将不再是“附属品”,而是构成这个生态的三大核心支柱。
1. 支柱一:高能效的端侧模型与专业Agent
未来的竞争,不再是模型参数的军备竞赛。林衍凯教授认为,Agent时代的模型评估标准将从“跑分高转向用起来好”。这意味着,模型在工具使用、结构化输出、长上下文处理等方面的能力,将从“加分项变成硬性要求”。
这为专注于特定领域、经过高度优化的端侧小模型打开了广阔的市场空间。林衍凯提炼了一个“专业智能体”的成功公式:
“专业智能体 = 通用大模型 + 领域知识库 + MCP 工具 + 专业 Skill 工作流 + 领域后训练。”

遵循这套公式,我们可以在代码、金融、法律、设计等垂直领域,打造出在端侧设备上高效运行的专业Agent。这类Agent不仅性能可以媲美甚至超越通用大模型,更能以极低的成本部署。投资于拥有核心领域知识、能够快速构建并优化专业端侧模型的团队,将是抓住第一波红利的关键。
2. 支柱二:Agent操作系统与“Agent-Native”软件生态
林衍凯将OpenClaw视为“智能体操作系统的早期原型”,并预言未来的生态竞争将在框架层、协议层和编排层展开。这如同移动互联网时代的iOS与Android之争。谁能定义Agent在端侧的运行标准、通信协议和资源调度框架,谁就掌握了下一代计算平台的话语权。
“我们的模型就必须去主动适配它,就像我们移动时代的APP,必须适配IOS以及安卓一样。”
这一趋势将催生两大投资机遇:
平台型公司:开发类似于OpenClaw但更成熟、更适合端云协同架构的Agent操作系统或框架。这些平台将连接模型、设备、工具和用户,成为生态的“枢纽”。
“Agent-Native”软件革命:现有的GUI软件将被倒逼进行改造。林衍凯判断,“长期来看随着更多的软件慢慢被转化为Agent-Native的接口,工具调用的覆盖率会持续地上升。”
3. 支柱三:个性化记忆与端侧自主进化
Agent的终极魅力在于“越用越懂你”,并能在使用过程中持续进化。然而,在纯云端架构下,实现这一点面临着数据隐私和模型更新的巨大挑战。将记忆与进化机制置于端侧,是唯一现实的解决方案。
林衍凯看好“可迁移的明文记忆 + 可优化/学习机制”这一方向。这意味着用户的个人偏好、经验教训能够以一种安全、可控、且不与特定模型绑定的形式存储在本地。

更具想象力的是“端侧自主进化”。尽管目前如OpenClaw-RL这样的尝试还非常初级,但它指明了方向:利用用户在端侧的交互数据,通过联邦学习等隐私保护技术,对端侧模型进行持续、个性化的微调。
“如果之后有了端云结合,可以想象,会有更多的设备开始养虾(运行Agent)。”

当亿万个设备上的Agent能够独立学习、并将“经验”安全地贡献给一个协同进化的网络时,整个AI生态的迭代速度将发生质的飞跃。投资于端侧学习、隐私计算、以及新型记忆架构的公司,将是在为Agent时代的终局进行布局。
结论:投资未来,即刻布局端侧
总结而言,林衍凯教授的分析为我们揭示了Agent技术发展的清晰脉络:以OpenClaw为代表的云端Agent是拉开时代序幕的“信号弹”,但其高昂的成本和脆弱的可靠性决定了它无法成为终局。
真正的、可持续的、能够服务于数十亿用户的Agent未来,必然构建在端云协同的架构之上。而端侧智能,正是这一新范式的核心引擎和价值载体。
我们正处在林衍凯所说的“从‘演示可行’到‘大规模部署’的转折期”。在这个关键节点,率先布局端侧智能的公司,将不仅能解决当前Agent落地的核心痛点,更将定义下一代计算平台的生态规则,赢得Agent时代的最终胜利。


