核心决策:放弃从头训练模型,选择基于前沿模型进行“上下文工程”。
根本原因:上下文工程能以小时为单位快速迭代,并使产品与底层模型技术解耦,如同“水涨船高”中的船,而非固定的柱子。本文分享了在构建AI代理Manus过程中,通过大量实验(戏称为“随机研究生下降”)总结出的上下文工程核心原则。
代理的输入(上下文)远大于输出(动作),平均Token比例可达100:1。低效的缓存利用会急剧增加成本和延迟。
工具数量爆炸会让代理“变笨”。但动态增删工具会使KV缓存失效,并让模型对引用了已消失工具的历史记录感到困惑。
即使是128K的上下文窗口,在处理网页、PDF等大型非结构化数据时也容易耗尽、性能下降且成本高昂。不可逆的压缩会丢失关键信息。
在长达数十步的复杂任务中,代理容易“迷失在中间”,偏离最初的目标。
开发者倾向于隐藏错误、重试或重置状态,但这剥夺了模型从失败中学习的机会。
LLM是优秀的模仿者。如果上下文中充满了大量相似的“动作-观察”对(少样本示例),模型会倾向于盲目重复该模式,即使当前情况已不适用。
结论:上下文工程是构建强大、高效、可扩展AI代理的核心。你如何塑造上下文,最终决定了你的代理将如何行为。