Page 1 - Showing 8 of 43 posts
View all posts by years →
- Tool Call Dispatch:从 Normalize 到 Gateway Adapter 的统一分发设计
从零构建双层 runtime:一层统一 OpenAI、Claude、Codex 的工具调用信封,一层用 adapter/route 把 Claude、OpenAI、Gemini 等 provider 网关串起来。
88 min zh-CN - Tool Gateway Runtime:代码中涉及的设计模式与架构模式
结合 dispatch_envelope_demo.py,说明 Adapter、Strategy、Registry、Command、State Machine、Facade 与 Anti-Corruption Layer 在实现中的对应位置,并区分经典设计模式与架构模式。
30 min zh-CN - Agent 系统设计:LLM 的固有缺陷与 Harness 工程实践
从精确计算盲区、幻觉、上下文窗口、Harness Engineering、Agent Loop 架构到工具设计——系统梳理 LLM 的固有局限,结合 Anthropic、OpenAI、LangChain 的一线工程实践,给出 Agent 系统的完整设计方案。
72 min zh-CN - CCContext 深度解析:Coding Agent 的运行内存与数据总线
基于 learn-claude-code 开源项目,从消息存储、Token 账本、原子块压缩到 Re-fetch 兜底——拆解 Coding Agent 上下文管理的核心设计。
59 min zh-CN - Harness Engineering:LangChain 不换模型、只改环境,从 Top 30 到 Top 5
拆解 LangChain 在 Terminal Bench 2.0 上从 52.8% 到 66.5% 的全部技术细节——5 个失败模式、4 层中间件、推理三明治策略,以及 OpenAI 和 Anthropic 同时得出的相同结论。
49 min zh-CN - Attention 01:为什么需要 Attention
从长距离依赖、固定长度瓶颈和动态信息需求出发,理解 Attention 机制到底在解决什么问题。
35 min zh-CN - Attention 02:从查资料直觉理解 Q K V
把 Attention 解释成一次软检索:Query 是你的问题,Key 是索引,Value 是内容。
29 min zh-CN - Attention 04:为什么 QKᵀ 表示词与词的关系
点积的几何意义、为什么不能用 XXᵀ、以及 Attention 学到的'关系'到底是什么。
37 min zh-CN