孤独的观测者在 2026 年 2 月做了一个实验。五位 OPC 经营者被要求委托一个复杂任务给他们的 AI 助手:'审查这个客户的账户并推荐最优定价层级。'经营者在他们的利基中平均有 6.3 年经验。他们的 AI 平均使用了 8 个月。结果:AI 推荐与人类会做的匹配度为 23%。在 41% 的案例中,AI 做出的推荐技术上正确但商业上灾难性。在 36% 的案例中,AI 幻觉了不存在的客户事实。AI 不笨。它是上下文盲。
以拉各斯顾问 Rachel Okonkwo 为例,专门从事非洲金融科技合规。Rachel 有 12 年经验。她知道哪些监管机构行动缓慢,哪些银行有隐藏要求,哪些司法管辖区事实上安全尽管有官方警告。她试图训练一个 AI 助手学习她的知识。她喂给它 400 份过去的咨询报告。AI 学会了格式。它没有学会判断。当被要求评估新客户的监管风险时,AI 推荐了一种保守方法,会让客户花费 20 万美元不必要的法律工作。Rachel 的实际推荐基于关系和不成文规范,会为客户节省 15 万美元。AI 有数据。Rachel 有上下文。上下文是知道规则和知道哪些规则可以变通之间的区别。
核心问题:上下文是隐性的。它存在于你的脑海中。它是从一万次微观决策中建立的模式识别。它是感觉某事不对劲的直觉。它是知道 API 在凌晨 3 点崩溃时该给谁打电话的知识。你无法通过提示让它存在。你无法通过微调消除它。孤独的观测者注意到,在 2026 年,用 AI 获胜的经营者是将'上下文工程'作为核心学科的。他们系统地将隐性知识外化为 AI 可以消费的结构化格式。
反思:我们假设 AI 会通过渗透学习。足够多地使用它,它就会学会我们的风格、我们的判断、我们的启发式。但 AI 没有渗透。它只有你明确给它的东西。孤独的观测者注意到,2026 年最有效的 AI 实施是那些有'上下文管道'的——实时捕获决策、推理和结果的系统流程。每封发送的邮件。每个定价决策。每次客户对话都记录。不是作为档案。作为训练数据。上下文不是一次性上传。它是持续馈送。
战略洞察:今天建立你的上下文管道。(1)决策日志——每个重大决策都记录:考虑的选项、推理、预期结果,以及知道时的实际结果。(2)例外捕获——当你推翻 AI 的推荐时,记录原因。这是黄金。(3)关系映射——维护关键联系人的结构化数据库、他们的怪癖、他们的偏好、他们的历史。(4)模式库——记录重复出现的情况和你的标准回应。'当 X 发生时,我做 Y 因为 Z。'(5)上下文审查——每周用你的实际决策审查 AI 输出。识别差距。重新训练。此外,对你委托的任何任务实施'上下文交接协议':(1)提供目标,(2)提供约束,(3)提供三个你过去工作的良好输出示例,(4)提供一个灾难性失败示例及原因。没有上下文的 AI 是指向你业务的武器。上下文工程是安全。建立它。