目 录CONTENT

文章目录

国产AI自动化方案搭建教程:nanobot+Seed2.0+Claude Code实现24小时低成本运行




前几天我们发了一篇10w+,是国外大神的 OpenClaw 使用方案,后台收到好多小伙伴的留言:太烧Token了,国内用不了Claude。

柴犬表情包配文字评论截图

我们就想着能不能搭一套国产的入门方案,成本可控,还能 24 小时自动干活?

试了一圈,真让我们搞出来了。

用的是 nanobot(轻量级框架)+ Seed 2.0(国产大模型)+ Claude Code(终端 AI 工具)这个组合,搭了一套自动化编程系统。VLM 视觉任务、数据分析、全栈开发,三个任务排队自动跑完。

今天就把这套方案拆开给大家看看,怎么实现的,效果如何,成本到底多少。

一、为什么选这个组合?

先说说为什么是这三个工具。

nanobot超轻量级的 AI 助手框架,只有 4000 行代码,内存占用小。在这套系统里它是任务协调者——定时检查任务队列,分配任务给 AI 执行器,管理任务状态。

这里聪明的小伙伴一定会问,为什么不用OpenClaw,你封面不是OpenClaw吗??

熊猫头表情包,流泪微笑,配文‘正在面对无法逃避的痛苦’

说多了都是泪:OpenClaw 有 43 万行代码,单跑不卡,但我 64GB 内存的电脑同时开着 VSCode 就会卡。GitHub Issues 里 Bug 比 features 还多,连 Karpathy 都吐槽它是"40 万行代码的怪物"。

Twitter用户Andrej Karpathy评论Claws与OpenClaw技术方案

相比来看,nanobot 只有 4000 行代码,轻量、稳定、好改造。

豆包大模型2.0字节跳动最新发布的大模型,前几天刚进 LMArena 全球前十,成了国产第一。关键是它的多模态理解、长程推理、Agent 能力都挺能打,字节家的多模态做得多好,无需多言。

Claude CodeAnthropic 的终端 AI 编程工具,负责实际执行代码开发。它本来是调用 Claude 的,但火山引擎的 API 兼容 Anthropic 协议,所以可以直接接入Seed 2.0,支持国产平替。

这三个组合起来,就是一个能自动运转24小时无休的 AI 团队。

二、三层架构:让 AI 自己管理自己

想看效果和怎么用的直接看下一节,这节可以跳过。

整个系统分三层,听起来复杂,其实逻辑很简单。

目录结构

workspace/
├── .ai/                    # 元数据目录
│   ├── todo.md            # 任务队列
│   ├── META.md            # 元指令
│   └── start-with-gateway.sh  # 启动脚本
├── case1/                 # 任务1工作目录
├── case2-data-report/     # 任务2工作目录
└── case3-lantern-festival/ # 任务3工作目录

数据层:任务队列和完成标记

所有任务都记录在一个 todo.md 文件里,每个任务有五种状态:

任务状态表:PENDING、RUNNING、DONE、BLOCKED、FAILED五种状态及其含义与说明

当 AI 完成任务后,会创建一个。task-complete.done 标记文件,调度器检测到这个文件就知道任务完成了。

调度层:定时检查和任务分配

nanobot 的 gateway 每 2 分钟触发一次,读取todo.md,发现 PENDING 状态的任务就分配给执行层。这里有个关键设计:无状态调度器

什么意思?就是每次调度器运行都是独立的,不依赖上次的状态。崩溃了也不影响下次执行,非常稳。

执行层:后台持久化运行

任务在 tmux 会话里跑,Claude Code 接收指令后开始干活。tmux 的好处是可以后台运行,你想看进度就tmux attach 进去看一眼,不想看就让它自己跑。

整个流程是这样:

国产自动化任务调度系统架构图,含数据层、调度层与执行层

用户创建任务 → Cron 每 2 分钟触发调度器 → 调度器发现 PENDING 任务 → 标记为 RUNNING 并发送给 Claude → Claude 执行完创建.done 文件 → 下次调度器检测到标记 → 更新为 DONE 状态 → 继续处理下一个任务。

三、实战测试:三个任务验证能力

搭好这个架构,就开始跑任务了。我设计了三个并发测试,重点验证这个AI 编程团队的 VLM 多模态、长程推理、全栈开发能力。

测试一:VLM 视觉任务——让AI直接理解图片

第一个 执行的任务是复刻一个后台管理系统的界面。我给这个 AI 团队一张 OpenClaw Dashboard 的设计图,让它生成 HTML。

目标界面

OpenClaw网关仪表盘界面,显示网关配置、状态及错误提示

结果第一次就踩坑了。

我在 PRD 里用文字描述了“这个目标的UI图的布局和颜色”,而且是描述他是一个管理后台,但实际的图是“OpenClaw Dashboard”。Claude 按我的文字描述生成了一个完全错误的页面——布局对不上,颜色也不对,甚至不少的字都对不上OpenClaw Dashboard

这时候我才反应过来:VLM 任务不该用文字描述图片,应该让 AI 自己看

调整后的 PRD 只写了一句话:“读取 PRD 里面指定要求的图片内容后,分析图片,并生成代码”。

第二次跑就顺了。生成的页面布局还原度 95%,颜色也对上了 90%。侧边栏、顶部导航、数据卡片、图表区域,该有的都有,连颜色渐变都还原得很到位。

复刻效果

OpenClaw网关仪表盘界面,显示网关状态、访问配置与错误提示

Seed 2.0 的多模态理解能力确实强,图表识别、空间理解、颜色提取都很准。关键是让 AI 自己看,而不是你替它描述。

测试二:长程执行——17 分钟不掉链子

第二个任务是数据分析,针对私有数据从 CSV 清洗到生成可视化报告,验证长时间执行的稳定性。

代码编辑器中显示数据文件列表与配置对象

整个流程跑了 17 分钟:

  • 数据清洗:5 分钟

  • 分析计算:4 分钟

  • 图表生成:6 分钟

  • 输出报告:2 分钟

中间我看调度器每 2 分钟触发一次,但 AI 团队一直在跑,没被干扰。本来最担心的是任务跑太久会不会掉链子,结果挺稳,一步没落。

生成的数据报告

电商平台用户行为分析报告仪表盘,含销售、订单、设备等多维度数据图表

Python 代码生成准确,Matplotlib 图表配置合理,最后输出的 HTML 报告排版也很专业。Seed 2.0 在这种长程任务上的稳定性,以及代码生成的准确性,确实让人放心。

测试三:全栈开发——一个人干完前端到数据库

前两个测试验证 VLM 和长程推理,第三个任务是做一个元宵灯会应用,包含前端界面、后端逻辑、数据库配置,一整套前后端架构。

这三个测试我是同时跑的,Gateway 同时向三个员工发出了调度指令,三路任务同时在推进,各自独立,互不干扰。

中间 T003 跑的时候我 tmux attach进去看了眼,AI 团队的员工正在理解 PRD 里的需求,确认方向对就detach出来——任务继续在后台跑,完全不需要人盯着。

Gateway 监控效果

终端日志显示T003任务执行进度与自动化构建过程

这种"想看就看,看完就走"的感觉挺舒服。三路任务并行推进,25 分钟全部跑完,如果串行执行同样三个任务大概需要 50 分钟以上,并行直接省了大概一半时间

最后生成的元宵灯会应用完成度确实比较

项目目录结构

代码项目目录结构,含app、components、lib等文件夹及配置文件

项目运行效果

深色星空背景配上金色主题,节日氛围到位。三大功能模块——猜灯谜、许愿天灯、排行榜——交互流畅,视觉统一。猜灯谜有题目展示、答案输入和提示功能;许愿天灯支持写心愿、字数限制和放飞动画;排行榜还分了猜谜高手和许愿达人两个维度。

这里特别值得夸的是 Seed 2.0 的全栈开发能力——从 Next.js 项目搭建,到 React 组件编写,再到 Prisma 数据库配置,一整套前后端架构都能独立完成。作为 AI 自动生成的全栈项目,这个效果已经超出预期。

四、算笔账:40 元/月能干多少活?

说到成本,我实际跑了三个任务:VLM视觉、数据分析、全栈应用,用了火山引擎 Lite 套餐(40元/月)5%的额度。

Coding Plan订阅页面,展示Lite与Pro套餐及用量限额

对个人开发者来说,这个价格是挺合适的。大家可按需选择:szacq.cn/YEubD/

五、快速上手:五步部署并使用

如果你想自己试试,部署其实很简单,15 分钟搞定。

第一步:安装 nanobot

# 克隆源码
git clone https://github.com/HKUDS/nanobot.git
cd nanobot


# 创建虚拟环境并安装
python -m venv .venv
source .venv/bin/activate
pip install -e .


# 初始化配置
nanobot onboard


# 验证安装
nanobot --version

执行完会创建~/.nanobot/config.json 配置文件和工作空间目录。

第二步:接入 Seed 2.0

火山引擎方舟平台(szacq.cn/YEubD/购买 Coding Plan 套餐(Lite 40 元/月就够用),然后创建 API Key。

编辑~/.nanobot/config.json(记得改自己的api key):

{
  "providers": {
    "volcengine": {
      "apiKey": "your-volcengine-api-key",
      "apiBase": "https://ark.cn-beijing.volces.com/api/coding/v3"
    }
  },
  "agents": {
    "defaults": {
      "model": "doubao-seed-2.0-code",
      "provider": "volcengine",
      "maxTokens": 8192,
      "temperature": 0.1
    }
  }
}

验证一下:

nanobot agent -m "你好,测试连接"

第三步:配置 Claude Code

# 安装Claude Code
npm install -g @anthropic-ai/claude-code


# 设置环境变量(建议加到 ~/.bashrc)
export ANTHROPIC_API_KEY="your-volcengine-api-key"
export ANTHROPIC_BASE_URL="https://ark.cn-beijing.volces.com/api/coding"

关键点:记得改自己的 api key。

第四步:让AI团队自己协作

配置定时任务让 nanobot 定期执行调度逻辑:

nanobot agent -m "请创建一个定时任务,每2分钟执行一次以下操作:
读取 workspace/.ai/todo.md
检查所有任务(T001/T002/T003)的状态
对于每个状态为 PENDING 且依赖满足的任务:
  T001 → 通过 tmux 向 claude-case1 会话发送执行 case1/PRD.md 的指令
  T002 → 通过 tmux 向 claude-case2 会话发送执行 case2-data-report/PRD.md 的指令
  T003 → 通过 tmux 向 claude-case3 会话发送执行 case3-lantern-festival/PRD.md 的指令
发送指令后更新该任务状态为 RUNNING
如果检测到某个任务目录下存在 .task-complete.done 文件,将该任务状态更新为 DONE
如果所有任务都是 DONE,执行命令: pkill -f \"nanobot gateway\" 停止 gateway 服务"

核心调度逻辑

国产自动化任务流程表,含7步操作与说明

第五步:让 AI 团队开始干活

搭好后,用一个启动脚本.ai/start-with-gateway.sh一键启动整个系统:

#!/bin/bash


WORKSPACE_DIR="/your/workspace/path"
NANOBOT_DIR="/your/nanobot/path"


# 清理旧环境
for session in gateway claude-case1 claude-case2 claude-case3 logs; do
    tmux has-session -t "$session" 2>/dev/null && tmux kill-session -t "$session"
done
pkill -f "nanobot gateway" 2>/dev/null || true
sleep 1


# Gateway(任务调度器)
tmux new-session -d -s gateway
tmux send-keys -t gateway "cd $NANOBOT_DIR && source .venv/bin/activate && nanobot gateway" C-m


# 并行启动 3 个 Claude 执行器
tmux new-session -d -s claude-case1
tmux send-keys -t claude-case1 "cd $WORKSPACE_DIR/case1 && claude --dangerously-skip-permissions" C-m


tmux new-session -d -s claude-case2
tmux send-keys -t claude-case2 "cd $WORKSPACE_DIR/case2-data-report && claude --dangerously-skip-permissions" C-m


tmux new-session -d -s claude-case3
tmux send-keys -t claude-case3 "cd $WORKSPACE_DIR/case3-lantern-festival && claude --dangerously-skip-permissions" C-m


# 日志监控
tmux new-session -d -s logs
tmux send-keys -t logs "tail -f /tmp/nanobot_gateway.log" C-m

启动后得到 5 个独立的 tmux 会话:gateway(调度器)、claude-case1/2/3(执行器)、logs(日志监控)。

键参数:--dangerously-skip-permissions让 Claude Code 自动接受所有权限请求,避免在 tmux 里出现交互阻塞。

之后只要维护AI团队的todo.md 和PRD.md就可以自动运行了。想更加自动化的小伙伴,可以接到飞书等通讯工具,交互会更加方便。

番外篇:几个踩坑经验

搭建了这样一个 AI 团队,总结几个经验:

1. PRD 就是契约,不要边做边改

一开始我尝试过让 AI 边执行边修改,想着这样可以灵活调整。结果发现完全让 AI 自己控制节奏是行不通的——没有约束的执行会出现大量偏差,前后端逻辑对不上、代码和实际需求脱节。

后来我明白:信息必须在一开始对齐,PRD 就是契约。现在的做法是花足够时间把 PRD 写清楚——不是简单描述“要做什么”,而是明确“做成什么样”。PRD 一旦定下来,就是 AI 执行的依据,不轻易变动。

2. 验收标准要量化

需求文档不能只写需求,必须写验收标准。比如 VLM 任务,验收标准从“生成好看的 html 页面”改成“布局还原度>90%,颜色匹配度>85%,包含指定的 5 个组件”。目标清晰了,AI 执行才有方向,验收也有依据。

3. 大任务必须拆解

每个子任务控制在 30 分钟内可完成,成功率远高于让 AI 一次干完。类似安装大量依赖(如 pytorch)、build 大型 Docker 镜像这种,就不适合用这套系统。

写在最后

Seed 2.0 进 LMArena 全球前十,字节同期还发布了 Seedance 2.0,国产 AI 的进步速度确实惊人。这次用 Seed 2.0 搭这套系统,最大的感受是:国产 AI 已经到了可以放心用在生产环境的阶段了。

40 元/月,24 小时待命,VLM、长程推理、全栈开发都能搞定。这个性价比,真的很难不心动。

对了,豆包 App 的“专家”模式已经接入 Seed 2.0 Pro 模型了。过去豆包为了平衡速度和成本,用的是参数比较小的模型,容易给人留下产品很好,但模型不够强的印象。现在接入 Seed 2.0 Pro,能更好地展示模型能力,感兴趣的可以去试试。

如果你也在探索 AI 自动化的实践应用,希望这个国产AI方案能给你一些启发。

可以先从一个小任务开始。记得花时间写好 PRD,磨刀不误砍柴工。


0

评论区