Cline v3.25 已正式发布,新版本通过引入 Deep Planning、Focus Chain 和 Auto Compact 三大核心系统,以解决大语言模型(LLMs)在多轮长对话中因上下文累积导致的“中间遗忘” ("lost in the middle")和性能衰退问题。
这三大系统如同一个分工明确的团队:
- Deep Planning 负责“战略规划”与上下文压缩;
- Focus Chain 保持“战术执行”的一致性;
- Auto Compact 则负责“战场清理”,确保资源高效流动。
文章指出,当任务变得越来越复杂且涉及多轮交互时,LLM 的性能会显著下降。这并非仅仅因为上下文长度不足,而是“中间内容”的噪音逐渐掩盖了原始任务意图,从而引发语义偏离或幻觉。
为了解决“长上下文多轮任务偏离”的问题,Cline v3.25 引入了三大协同机制:
1. Deep Planning — 打好基础,避免污染
- 使用
/deep-planning
命令后,Cline 会先非冗余地全面探索项目(grep、分析依赖、阅读文件等),构建项目“心智模型”。 - 接着向用户提问澄清歧义,并生成统一的
implementation_plan.md
,保存到项目根目录。 - 最后,启动一个全新任务,仅载入核心上下文(关键文件 + 计划文件),避免早期探索中的多余噪音污染实现阶段。
这样,实施阶段从一个纯净、高价值的上下文切入,从而维持最优性能。
2. Focus Chain — 稳定任务方向
- 默认启用,Cline 自动从任务中生成待办清单(todo list),并每 六条消息定期注入上下文中,以提醒自己当前进度与目标。
- 待办清单内容会随着任务进展自动更新:完成项被标记、新任务加入、优先级调整,确保模型不会偏离主线 。
3. Auto Compact — 自动压缩上下文,延续任务
- 当上下文接近极限时,Cline 会自动总结当前会话的关键内容(技术决策、代码变化、进度等),并将其压缩为摘要,替换掉膨胀的历史记录,然后继续任务。
- 例如,一个需要 500 万 token 的任务,在 20 万 token 的上下文窗口下也能顺利完成。配合 Claude 4 Sonnet 的 100 万 token 窗口,显得尤为高效。
其他 v3.25 更新亮点
- 增加了对 Claude Sonnet 4(200k context window)的支持(OpenRouter 和 Cline Providers);
- 支持自定义 Requesty Provider 的 base URL;
- 修复了 checklist 更新过程中重复执行
attempt_completion
的 bug; - 修复 Banner 无法关闭的问题;
- 在 AWS Bedrock 中加入了 GPT-OSS 模型支持。
还没有评论,来说两句吧...