AI 新名词绝大部分都是软件工程老概念换马甲。Skills 是写给 LLM 看的插件说明书,MCP 是 AI 时代的 RPC,Agent 是带 LLM 脑的 cron job。认出老朋友,不用再学每个新词。
四大厂商都说先从单 Agent 开始,但没人告诉你什么时候该拆。五个失控信号帮你诊断单 Agent 健康度,一个协调税框架帮你算清拆分的隐性成本。
Harness Engineering 的核心不是让 Agent 更高效,而是把失败变成可收集、可定位、可约束、可修复的工程对象。从 OpenAI 暗黑工厂到个人 Agent 编排项目,失败系统化的原理是相通的。
Skill 不是壁垒,是工程手段。但平台锁定是真实代价——便利与自由的经典权衡。
Agent Memory 的真正难题不在存储,而在删除。用一次真实的 memory 审计数据,拆解陈腐、冲突、膨胀三类问题,给出三种管理策略的优先级。
很多人把 Harness 理解成测试框架或 CI/CD 升级版,这个理解太窄了。它的本质,是把 AI 执行的可信度问题转化为工程结构问题。
技术债不只是代码写得差。Buffer 迁移时发现 7 个跑了 5 年的废弃任务——看不见的系统级债务才是真正的本金。清理代码是还利息,清理盲区才是还本金。
从便利贴 prompt 到标准化工具箱,AI 的"配置文件"悄悄走过了五代演进。ETH Zurich 实证数据揭示反直觉真相:给 AI 写规则,精准约束比全面描述管用——限制越精确,执行越可靠。
同一个模型差了 6 个百分点——Auggie 和 Cursor 的成绩差距揭示了一个被忽略的事实:决定 AI 编程工具能力上限的是 Harness 框架而非底层模型。Context Rot、中间遗忘、工具歧义,三重问题全是 Harness 的工程挑战。评估 AI 工具,该问「Context Engine 怎么设计」,不是「用了什么模型」。