大家好,我是何三,独立开发者
Claude Code 的 Agent 体验,换个后端,成本直接打了 0.6 折,一毛一样的效果。
做同样的事,以前每月交 200 美金的保护费,现在只要 12 块钱。
这个项目叫 deepclaude,四天前冲上 GitHub Trending,现在快 2,000 Star 了。
核心操作就一句话:保留 Claude Code 那套成熟的自主动作循环,但把脑子换成 DeepSeek V4 Pro。

说白了,Claude Code 之所以贵,不是因为它界面多高级——它连界面都没有,就是个命令行工具。它贵在那一整套工具调用系统:读文件、写代码、跑 bash、开子进程、自动规划下一步。这个工作流是目前所有编程 Agent 里最成熟的,没有之一。
但问题在于——它跑在 Anthropic 的模型上。Opus 模型输出 $15/M token,什么概念?你写一个复杂功能,Agent 来回调几十次,十美分就没了。高强度用一个月,$200 的额度轻松见底。
deepclaude 做的事情,说白了就是偷梁换柱。
它不改 Claude Code 的一行代码,只是通过环境变量把 API 请求转到了 DeepSeek V4 Pro 上。
你的终端
+-- Claude Code CLI(工具循环、文件编辑、bash、git — 都不变)
+-- API 调用 → DeepSeek V4 Pro($0.87/M)而不是 Anthropic($15/M)
好比你有辆顶配跑车,发动机是 Claude——马力足但油费贵到离谱。deepclaude 给你换了个 DeepSeek 发动机,百公里加速差不了多少,油费只要原来的 1/17。

说到换发动机这事儿,我想起去年折腾 Stable Diffusion,A 卡跑不了 CUDA,只能走 ROCm,搜了一下午教程,最后发现加个 --force-rocm 参数就行了。这种"换个后端搞定一切"的操作,懂的都懂。
装起来有多简单?两分钟
第一步,搞个 DeepSeek 的 API key,去 platform.deepseek.com 注册,自己看着充值。
第二步,配环境变量:
export DEEPSEEK_API_KEY="sk-your-key-here"
第三步,装好直接开跑:
deepclaude
就这一条命令。你会看到 Claude Code 的终端界面弹出来,但背后跑的已经是 DeepSeek V4 Pro 了。
想确认是不是真便宜了?跑一下看看:
deepclaude --cost
它会显示实时的成本对比——DeepSeek 花了多少钱,如果用 Anthropic 要花多少钱,省了多少。看着那个省钱百分比上涨,还挺上头的。
还能随时切回来
用着用着发现某个问题太复杂,DeepSeek 搞不定?不用退出重开,直接敲:
/deepseek → 切到 DeepSeek
/anthropic → 切回 Anthropic
实时切换,零重启。日常 coding 用 DeepSeek 省着花,遇到硬骨头切回 Opus,一毛钱都不浪费。
什么能跑,什么不能跑
能跑的东西很多——读文件、改代码、跑 bash、Git 操作、多步自主动作循环、开子 Agent……基本上 Claude Code 能干的,换了 DeepSeek 照样干。
不能跑的主要是:
- 图片输入:DeepSeek 的兼容接口不支持图片
- MCP 服务:兼容层还没打通
- 复杂推理:说实话,20% 的高难度任务 DeepSeek 还是不如 Opus。但官方也给了方案——--backend anthropic 一键切回去。
原理大概是这样,细节可能有出入——有懂的大佬欢迎指正。
替代方案
如果你不想折腾环境变量,还有一个叫 ErlichLiu/DeepClaude 的项目,走了完全不同的思路——它是在 Python 层面把 DeepSeek R1 的推理链和 Claude 3.7 的生成能力串起来,DeepSeek 负责"思考",Claude 负责"输出",效果也不错,目前 2.9k Star。
不过我个人更喜欢 aattaran/deepclaude 这种方案——不改代码、不串流程,单纯换后端,干净利落。
如果你对这类 AI 编程工具有兴趣,我此前还整理过《2025 年 GitHub 高性能神器排行榜》,关注后回复「工具」获取。
值不值?
我的建议是:如果你已经在用 Claude Code,装上 deepclaude,日常 coding 切到 DeepSeek,复杂问题切回 Anthropic,每个月省 150 刀轻轻松松。
如果你还没用过 Claude Code——先装上体验一下这个工作流,觉得好用再用 deepclaude 把成本打下来。
装不装都行,看你自己。
项目地址:github.com/aattaran/deepclaude
本文使用 MGO 编辑并发布
关注"何三笔记",回复"mgo" 免费下载使用