深以为然:1. 多智能体并行协作不如单线程稳定; 2. RAG 不靠谱还不如传统检索;3. 提示词里面的指令越多模型越不知道该怎么选。
——原推翻译如下——
在构建 AI 智能体(AI Agent)的道路上,我们团队 @Cline 识别出了三种“思维病毒”。所谓“思维病毒”,就是那些听起来很高明,但在实践中却压根儿行不通的诱人想法。
这三种病毒是:
* 多智能体协作 (Multi-Agent Orchestration)
* 检索增强生成 (RAG)
* 指令越多 = 效果越好
让我们来一探究竟!
1. 多智能体协作
那种科幻电影里的场景——“后方智能体、军需智能体、分析智能体、指挥智能体”分派出一大群子智能体,最后再将结果汇总起来——听起来确实很酷。但现实是,绝大多数有用的智能体工作都是单线程的。
复杂的协作流程很少能带来真正的价值,反而常常制造混乱。要知道,仅仅是让模型在单线程里稳定工作就已经够难的了,更别提去处理那些并行的协作逻辑了。这不仅增加了实现的复杂度,更让模型的理解和决策过程变得异常复杂。
2. 用 RAG 来构建智能体
RAG,即检索增强生成 (Retrieval Augmented Generation),也是一种思维病毒。它在理论上看起来很强大,但在实践中,尤其是在智能体场景下,有时候连 GREP 这种基础的文本搜索命令都比它好用。
为什么 RAG 的光环在实际的智能体工作流中会褪色?因为它检索到的信息往往是零散的片段,无法让模型形成一个连贯、有用的“理解”。
更好的方法几乎总是:让模型自己去列出文件,用类似 grep 的方式进行搜索,然后打开并阅读整个文件(就像人类一样)。@Cline 团队很早就开始这么做了,后来我们看到 @Amp — Research Preview 和 @Cursor 也都转向了这种更务实的方法。
3. 指令越多 = 效果越好
有一个流传很广的误解:在系统提示词 (system prompt) 里堆砌越来越多的“指令”,就能让模型变得更聪明。这完全是错的。
给提示词“注水”只会让模型感到困惑,因为更多的指令往往会导致建议相互冲突和信息过载。
结果就是,你不得不像玩“打地鼠”游戏一样,不停地修补模型的各种奇怪行为,而不是得到真正有用的输出。对于如今大多数前沿模型而言,最好的方法是别挡它们的路,而不是在旁边不停地大喊大叫,试图把它们引向某个特定的方向。请珍惜你的每一个字(或者说 Token)。
总而言之,以上这三种想法都极具诱惑力。如果你不是整天和 AI 打交道,你可能会觉得它们都非常有道理——然而事实并非如此。当然,随着底层模型能力的提升,我们对这些方法的看法未来也可能会改变。
点击图片查看原图