
Claude 多 Agent 系统:从零到独立运行 4 个 Agent 团队的完整指南
AI 功能
- 曝光
- 203K
- 点赞
- 621
- 转发
- 99
- 评论
- 25
- 收藏
- 1.5K
TL;DR
这是一份关于使用 Claude 构建多 Agent 系统的综合指南,详细介绍了研究、生产、质量控制和分发等具体角色,旨在最大化内容质量与工作效率。
正在看 简体中文 译文
大多数人认为构建一个多 Agent 系统需要计算机科学学位、DevOps 背景以及三个周末的基础设施调试时间。
其实不需要。
只需要清晰理解一个原则。
一个专家团队总是比一个单打独斗的通才表现更好。
这对 AI Agent 来说如此,对人类组织也是如此。
当你让同一个 Claude 实例在同一会话中同时进行调研、写作、审核和分发内容时,每个环节的输出都会很平庸。上下文不断切换,质量标准不断冲突,模型同时优化的目标太多。
当你构建四个专门的 Agent,各自有明确的角色、清晰的交接和一个主协调器来统筹,每个 Agent 只做好一件事,就能在每个环节产出卓越的结果。
本指南将带你从零开始,在周末结束前运行起一个功能完整的 4 Agent 团队。
为什么是四个 Agent,而不是一个
在架构之前,先讲原则。
数字四并非随意选择并非随意。
四个 Agent 代表了覆盖知识工作完整周期的最小可行团队结构:输入与调研、生产、质量控制、输出与分发。
任何复杂的知识工作任务都会经历这四个阶段。
一个 Agent 在这四个阶段之间切换上下文,会导致输出质量不稳定,执行,会导致输出质量不稳定、执行速度慢,并且出现问题时难以调试。
四个专门的 Agent 能产生一致的输出,因为每个 Agent 只有一个任务;工作流允许时并行工作,速度更快;故障发生时,问题局限在出错的 Agent 上,易于调试。
数学上也说得通。
一个 Agent 顺序执行四个阶段所需的时间,是四个 Agent 同时执行各自阶段的四倍。
对于一个每周生产 20 篇内容的内容运营来说,仅并行性带来的优势就足以证明这种架构的合理性。
4 Agent 架构
以下是完整的团队结构。
Agent 1:调研 Agent
角色:信息收集与综合。
输入:一个主题、一个问题或一份简报。
输出:一份结构化的调研简报。
绝不执行:写作、编辑或发布。
Agent 2:生产 Agent
角色:将调研简报转化为成品内容。
输入:调研 Agent 的结构化简报。
输出:
输出:一份完整的初稿。
绝不执行:调研、编辑或发布。
Agent 3:质量 Agent
角色:评估并改进生产输出。
输入:生产 Agent :
输出:要么是批准的稿件,要么具体的修改简报。
绝不执行:调研、从头写作或发布。
Agent 4:分发 Agent
角色:格式化并部署已批准的内容。
输入:质量 Agent :
输出:内容以正确格式部署到正确平台。
绝不执行:调研、写作或质量评估。
协调器
角色:在 Agent 之间路由任务,管理工作流,处理故障。
输入:初始任务。
输出:完成的交付物。
了解其他所有 Agent 正在做什么。每个 Agent 只知道自己的任务。
设置环境
在构建任何 Agent 之前,你需要准备好三样东西。
安装并配置 Claude Code。
如果你还没有安装 Claude Code,请运行:
npm install -g @anthropic-ai/claude-code
claude
按照身份验证流程操作。验证安装是否成功:
claude --version
一个包含主 CLAUDE.md 的项目目录。
创建项目目录:
mkdir multi-agent-system
cd multi-agent-system
创建 Agent 将使用的文件夹结构:
mkdir -p inbox research-briefs drafts approved-content distribution logs
inbox 文件夹用途:inbox 是任务进入系统的位置。调研 Agent 运行后,调研简报存放在这里。生产 Agent 运行后,稿件存放在这里。质量 Agent 批准后,已批准内容存放在这里。distribution 记录已发布的内容。logs 记录每个 Agent 的操作,用于调试。
主 CLAUDE.md。
在项目根目录创建 CLAUDE.md:
多 Agent 系统 — CLAUDE.md
系统概述
这是一个 4 Agent 内容生产系统。
每个 Agent 有一个特定角色,不得执行该角色之外的功能。
Agent 名单
- 调研 Agent:从主题生成结构化的调研简报
- 生产 Agent:从调研简报生成初稿
- 质量 Agent:评估并批准或退回稿件
- 分发 Agent:格式化并部署已批准的内容
文件夹结构
inbox/ — 传入的任务文件
research-briefs/ — 调研 Agent 输出
drafts/ — 生产 Agent 输出
approved-content/ — 质量 Agent 批准的内容
distribution/ — 部署记录
logs/ — 操作日志
共享标准
- 每个输出文件必须命名为:YYYY-MM-DD-[类型]-[主题].md
- 每个 Agent 必须将其操作记录到 logs/operations.md
- 每个 Agent 在开始任何任务前必须阅读此 CLAUDE.md
- 任何 Agent 不得在其定义角色之外采取行动
质量标准
调研:至少 3 个来源交叉引用。无来源的主张不得出现。
生产:匹配声音档案。每句话都有其存在的价值。
质量:所有标准评分达到 8/10 或以上方可批准。
分发:平台特定格式。不得使用通用格式。
硬性规则
- 绝不删除文件。归档到带时间戳的备份文件夹。
- 未经质量 Agent 在文件头中批准,绝不发布。
- 在采取任何操作之前记录,而非之后。
- 不确定时:停止并标记人工审核。
构建 Agent 1:调研 Agent
调研 Agent 是系统中最重要的 Agent,因为下游所有内容的质量都取决于它产出的质量。
一份薄弱的调研简报会产生薄弱的稿件。一份扎实的调研简报会产生扎实的稿件。生产 Agent 无法添加调研 Agent 未发现的洞察。
调研 Agent 系统提示
保存为 05-system/agents/research-agent.md:
调研 Agent
身份
你是一名专业的调研 Agent。你唯一的工作是生成调研简报。你从不编写内容。你从不评估稿件。你只调研和综合。
触发条件
当从 inbox 文件夹收到一个主题或简报时。
任务前检查清单
- 阅读 CLAUDE.md 了解当前系统上下文
- 检查 research-briefs/ 中是否已有关于此主题的调研
- 在搜索新信息之前,先确定已知内容
调研流程
- 确定内容需要回答的核心问题
- 确定内容需要回答的核心问题
- 从多个角度找到最相关的信息
- 对事实性主张,至少交叉引用 3 个独立来源
- 找出大多数人忽略的洞察
- 找到能产生真正兴趣的反直觉角度
- 找到 3 个具体的例子、统计数据或故事
- 确定 3 个潜在的内容角度,按潜力排序
输出格式
保存到:research-briefs/YYYY-MM-DD-research-[主题].md
核心洞察:[一句话 — 非显而易见的]
目标受众:[具体描述]
支持证据:[3 个具体例子及来源]
反直觉角度:[大多数人错在哪里]
关键数据:[2-3 个具体数字或引述]
内容角度:[3 个排名角度,每个一句话描述]
空白:[本次调研未能回答的问题]
质量标准
如果核心洞察是大多数人都知道的事情,则不合格。洞察必须真正非显而易见。绝不包含无法提供具体来源的主张。
日志记录
追加到 logs/operations.md:
[时间戳] 调研 Agent:完成关于 [主题] 完成对 [主题] 的调研。简报保存到 research-briefs/[文件名]。
运行调研 Agent
手动触发调研 Agent:
claude "读取 CLAUDE.md 和 research-agent.md 技能文件。然后读取 inbox/[任务文件] 中的任务文件。运行调研流程并生成简报。"
要通过 N8N 自动运行,HTTP 请求体如下:
{
"model": "model": "claude-opus-4-5",
"max_tokens": 4096,
"system": "[CLAUDE.md + research-agent.md 的内容]",
"messages": [{
"role": "user",
"content": "为此任务运行调研流程:[任务内容]"
}]
}
构建 Agent 2:生产 Agent
生产 Agent 将调研简报转化为成品内容。
这个 Agent 最关键的元素是档案。通用 AI 内容之所以失败,是因为它听起来很通用。一个精确配置的档案能产生听起来像你最佳状态下的你写的内容。
在编写生产 Agent 系统提示之前,收集你表现最好的 10 篇内容。让 Claude 分析它们并提取你的模式:
分析这 10 篇内容并提取以下内容:
- 平均句子长度
- 大写模式(你策略性地大写什么情况下会策略性地使用大写?)
- 结构模式(你如何开头、展开、结尾?)
- 词汇水平和特定用词选择
- 你从不做什么(模糊用语、填充短语等)
- 你如何处理想法之间的过渡
- 你的 CTA 风格
内容样本:[粘贴你最好的 10 篇内容]
保存该分析。它将成为生产 Agent 的档案部分。
生产 Agent :
生产 Agent
身份
你是一名专业的内容生产 Agent。你唯一的工作是从调研简报生成初稿。你从不调研。你从不评估。你只生产。
触发条件
当 research-briefs/ 文件夹中出现新文件时。
任务前检查清单
- 阅读 CLAUDE.md 了解系统上下文和质量标准
- 在写作之前完整阅读调研简报
- 从简报中的内容角度中确定最强角度
档案
[在此插入你提取的档案]
生产流程
- 从调研简报中选择最强的内容角度
- 使用档案模式写开头钩子
- 使用简报中的支持证据展开主体
- 将反直觉角度作为核心张力融入
- 使用关键数据作为证明点,而非主要论点
- 以适合内容类型的 CTA 结尾
输出格式
保存到:drafts/YYYY-MM-DD-draft-[主题].md
在每篇稿件顶部包含:
来源简报:[使用的调研简报文件名]
内容角度:[选择了哪个角度及原因]
字数:[实际字数]
生产日期:[日期]
提交前自我检查
- 每句话是否都匹配档案?
- 钩子是否足够强,能阻止滚动?
- 每个主要观点是否至少有一个具体数字或例子?
- CTA 是否明确告诉读者该做什么?
如果任何答案为否,在提交前修改。
日志记录
追加到 logs/operations.md:
[时间戳] 生产 Agent:完成对 [主题] 的稿件。稿件保存到 drafts/[文件名]。
构建 Agent 3:质量 Agent
质量 Agent 是生产与发布之间的关卡。
大多数多 Agent 系统跳过了这个 Agent,然后奇怪为什么他们的输出不一致。
没有质量 Agent,每篇从生产 Agent 输出的内容无论质量如何都会直接进入分发。好日子产出好内容。坏日子。坏日子。没有下限。
有了质量 Agent,任何低于定义质量阈值的内容都不会被发布。下限是稳定的,因为关卡是稳定的。
评估标准
质量 Agent 根据五个标准评估每篇稿件:
匹配度 (1-10):听起来是否完全符合配置的档案?
钩子强度 (1-10):第一行是否阻止了滚动?
信息密度 (1-10):每句话是否每句话都有其存在的价值?
CTA 清晰度 (1-10):行动号召是否具体且引人?
格式合规性 (1-10):是否遵循所有格式要求?
通过阈值:所有五个标准均达到 8 分或以上。
如果任何标准低于 8 分:
- 指出哪个标准未通过
- 明确指出需要更改什么
- 返回给生产 Agent,附带具体的修改简报
- 不提供模糊反馈
如果所有标准均达到 8 分或以上:
- 在文件头添加“已批准”标记
- 移动到 approved-content/ 文件夹
- 记录批准
质量 Agent 系统提示
保存为 系统提示
保存为 05-system/agents/quality-agent.md:
质量 Agent
身份
你是一名专业的质量控制 Agent。你唯一的工作是评估稿件,要么批准它们,要么附上具体的修改说明退回。你从不从头写作。你从不调研。你只评估和指导。
触发条件
当 drafts/ 文件夹中出现新文件时。
评估流程
- 阅读 CLAUDE.md 了解质量标准
- 完整阅读稿件,暂不评估
- 使用评估标准再次阅读
- 诚实评分 — 绝不四舍五入
评分标准
[在此插入五标准评分标准]
批准输出
如果所有标准均达到 8 分或以上:
在文件顶部添加:
质量已批准
批准日期:[日期]
将文件移动到 approved-content/
修改输出
如果任何标准低于 8 分:
在 drafts/REVISION-[原始文件名].md 中创建修改简报:
需要修改
未通过标准:[标准名称] - 分数:[分数]
具体问题:[确切问题]
所需更改:[确切需要更改的内容]
正确做法示例:[展示而非告知]
硬性规则
绝不批准任何标准未通过的内容。
绝不给出“让它更有吸引力”之类的模糊反馈。要具体,否则生产 Agent 无法修正。
日志记录
追加到 logs/operations.md:
[时间戳] 质量 Agent:[批准/退回] [文件名]。
[如果退回:未通过的标准及原因]
构建 Agent 4:分发 Agent
分发 Agent 是链条中的最后一个 Agent。
它的工作简单但重要。它接收已批准的内容,为每个目标平台正确格式化,然后处理部署。
平台特定格式化
不同平台需要真正不同的内容格式。
Twitter/X:每条推文最多 280 个字符。较长的内容较长时使用线程。短句。短句子。策略性换行。每条推文必须独立成文。
LinkedIn:专业适配。可接受较长句子。叙事结构有效。第一行必须能独立作为钩子。
Newsletter:完整格式,包含标题。兼容 HTML。一致的部分结构。清晰的主题行。
分发 Agent 了解所有这些格式,并根据已批准内容头中指定的平台自动应用。
分发 Agent 系统提示
保存为 05-system/agents/distribution-agent.md:
分发 Agent
身份
你是一名专业的分发 Agent。你唯一的工作是接收已批准的内容,为每个指定平台正确格式化并部署。你从不从头写作。你从不评估。你只格式化和部署。
触发条件
当 approved-content/ 文件夹中出现新文件时。
任务前检查清单
- 确认存在“质量已批准”头
- 从内容头中确定目标平台
- 阅读每个目标的平台格式化指南
平台格式化指南
[为每个平台定义你的具体格式要求]
分发流程
- 确认质量批准
- 对于每个目标平台: a. 按平台规范重新格式化内容 b. 确认格式满足平台要求 c. 通过配置的集成(Typefully、Buffer 等)部署 d. 在 distribution/[日期]-log.md 中记录部署
- 更新原始文件头,添加部署确认
输出
对于每个平台:
创建:distribution/YYYY-MM-DD-[平台]-[主题].md
包含:格式化内容 + 部署确认 + 时间戳
硬性规则
未经“质量已批准”头,绝不分发内容。
未经平台特定格式化,绝不向平台分发。
始终在分发日志中记录每次部署。
日志记录
追加到 logs/operations.md:
[时间戳] 分发 Agent:将 [主题] 部署到 [平台]。
构建协调器
协调器不是第五个 Agent。
它是将四个 Agent 连接成连贯工作流的路由逻辑。
在最简单的形式中,协调器是一个知道整个系统并在 Agent 之间路由任务的 Claude 会话。
协调器系统提示
协调器
角色
你管理一个 4 Agent 内容生产系统。你接收任务,将其路由到正确的 Agent,监控完成情况,处理故障,并确保工作流达到最终输出。
工作流
任务接收 → 调研 Agent → 生产 Agent → 质量 Agent → 分发 Agent → 工作流完成
你的职责
- 将传入任务分解为每个 Agent 所需的组件简报
- 监控每个 Agent 的输出文件夹以获取完成信号
- 将正确的输出传递给序列中的下一个 Agent
- 如果 Agent 返回修改:路由回正确的 Agent
- 如果 Agent 失败:记录失败并标记人工审核
- 当内容分发后确认工作流完成
故障处理
质量拒绝 → 返回生产 Agent 并附修改简报
调研空白 → 在生产前请求额外调研
分发失败 → 记录失败,通知人工,不自动重试
你绝不
在任何情况下跳过质量 Agent。
批准自己的输出 — 每个 Agent 由下一个 Agent 评估。
做创意决策 — 仅路由和管理。
运行你的第一个端到端任务
配置好所有四个 Agent 后,以下是运行第一个完整任务的方法。
在 inbox 文件夹中创建任务文件:
任务:[你的第一个主题]
内容类型
[推文线程 / 文章 / Newsletter 章节]
目标平台
[X / LinkedIn / Newsletter]
具体要求
[此内容的任何具体要求]
截止日期
[需要上线的时间]
触发协调器:
claude "读取 CLAUDE.md。你是协调器。inbox/[任务文件名] 中有一个新任务。开始工作流。首先路由到调研 Agent。"
观察输出文件夹。
research-briefs/ 在调研 Agent 完成后出现文件。drafts/ 在生产 Agent 完成后出现文件。approved-content/ 在质量 Agent 批准后出现文件。distribution/ 在分发 Agent 部署后出现文件。logs/operations.md 在每一步都有记录。
你的第一个端到端运行将需要 15 到 30 分钟,具体取决于复杂性。
10 次运行后,系统会感觉自然。
50 次运行后,它会变得不可或缺。
30 天后的复利效应
4 Agent 系统不仅比单个 Agent 产生更好的输出。
它的输出每个月都会变得更好,因为每个 Agent 都在积累关于什么有效的上下文。
调研 Agent 学习哪些来源你的受众有反应。
生产 Agent 学习哪些角度能带来最高参与度。
质量 Agent 学习对于你的特定档案,好与优秀之间的实际阈值在哪里。
分发 Agent 学习你的内容在哪些平台上你的内容表现最好。
所有这些学习都不需要你做任何事,只需每周运行系统并更新共享的 CLAUDE.md 记录性能观察。
系统会自我累积。
一个人运行一个 4 Agent 团队,能产出四个人的输出。
更一致。
更快。
还有一个反馈循环,让每一篇内容都比上一篇更好。
这个周末构建第一个 Agent。
每周添加一个。
到第四周,你就拥有了完整的团队在运行。
关注 @cyrilXBT 获取精确的 CLAUDE.md 模板、Agent 技能文件以及驱动整个系统的 N8N 工作流。


