大家好,我是何三,独立开发者
14 毫秒启动,27.8MB 内存运行——这不是什么轻量级计算器,这是一个完整的 AI 编码助手。
作为对比,Claude Code 启动要 3.4 秒,内存吃掉 386MB。
也就是说,你 Claude Code 还没反应过来,jcode 已经干完一行代码了。一个快了 245 倍,一个省了 13.9 倍内存——这个东西,怎么说呢,就是……就是那种你看到了会觉得"这不可能吧"的玩意儿。

这东西到底是干啥的?
jcode,全称就不翻译了,简单说就是——AI 编码代理的底层框架。
你看现在市面上的 AI 编码助手,Cursor、Claude Code、Copilot CLI……本质上都是"代理"模式:你给个任务,AI 自己去读代码、改文件、跑测试、提交。但这些东西基本都是 Python/TypeScript 写的,启动慢、吃内存、开几个会话机器就跪了。
jcode 用 Rust 重写了整个底层,把内存管理和进程调度做到了极致。
说实话,这块我也没完全搞懂,但它的核心设计理念我能说清楚:
传统编码助手 = 一辆大卡车,启动慢、油耗高、拉的东西也多 jcode = 一辆 F1 赛车——不是载货的,是来赛跑的
它不是简单的"用 Rust 重写一遍"就完事了,而是从架构上就不同——内存中的每个会话是真正的轻量级进程,互相隔离但又可以通过服务端协作。你开 10 个会话,它只多占 100MB 内存,其他工具开 10 个会话——好家伙,Cursor 直接吃掉 1.6GB。
说到这个,我突然想起来之前在写 Go 的时候遇到的糟心事——有次开了 6 个 VS Code 窗口 + 2 个 Cursor 会话,32GB 内存直接干满,风扇起飞,隔壁工位的同事都回头看我。换了 jcode 的话,10 个会话才 260MB,感觉风扇终于能寿终正寝了。
内存和速度,数字不会骗人
直接看 README 里贴的 Benchmark,我截几个重点:

首帧时间(就是你敲完回车到看到画面的时间):
| 工具 | 时间 | 对比 jcode |
|---|---|---|
| jcode | 14ms | baseline |
| Claude Code | 3437ms | 慢了 245 倍 |
| Cursor Agent | 1950ms | 慢了 139 倍 |
| Copilot CLI | 1519ms | 慢了 108 倍 |
单会话内存占用:
| 工具 | PSS | 对比 jcode |
|---|---|---|
| jcode(基础模式) | 27.8MB | baseline |
| Claude Code | 386.6MB | 多了 13.9 倍 |
| Cursor Agent | 214.9MB | 多了 7.7 倍 |
| OpenCode | 371.5MB | 多了 13.4 倍 |
10 会话内存:
| 工具 | PSS | 对比 |
|---|---|---|
| jcode | 260.8MB | baseline |
| Claude Code | 2300.6MB | 多了 8.8 倍 |
| OpenCode | 3237.2MB | 多了 12.4 倍 |
OpenCode 开 10 个会话干到 3.2GB,这谁顶得住啊。
jcode 每个额外会话才加 ~10.4MB,其他工具加一个会话都是 150-300MB 起步。
为什么这么省?因为 Rust 没有 GC,内存分配更紧凑,加上 jcode 自己做了一套极简的渲染引擎——它甚至没有用浏览器渲染那套,而是直接用 Rust 写了个自定义 TUI 框架。说白了,不用 Electron,不用浏览器内核,连渲染都是自己手撸的。
不只是快,功能也很硬
光快没用,功能得跟上。
jcode 有几个我觉得很有意思的特性:
1. 自修改模式(Self-Dev)
你让 jcode 进入自修改模式,它会自己去读自己的源码,改代码,编译,然后热重载——全过程不需要你动手。
这就很离谱了。你写个编码助手,然后这个编码助手自己改自己的代码,改完了还能自己重启继续干活。
2. Swarm 多代理协作
这个更夸张——你可以在同一个仓库里 spawn 多个 agent,它们之间自动通信。Agent A 改了文件,Agent B 那边立马收到通知,自动检查冲突。你甚至可以一个当主理人,其他的当打工仔,活儿干完了自动汇总。
多代理这个东西,之前基本都是团队才用得上的概念,jcode 直接让你一个人在终端里搞出一个"编码团队"。
3. Agent Memory
jcode 会把每一次交互嵌入成语义向量,然后自动做相似度匹配。你用久了,它会"记住"你的代码风格、常用的库、喜欢的架构模式——有点像你写代码的时候旁边坐了个老同事,看你写两句就知道你想干什么,然后默默把工具递过来。
4. 自研 Mermaid 渲染器
你没看错,它还自己写了个 Mermaid 渲染器。原因是现有的渲染太慢了,它这个用 Rust 写的新渲染器比原来的 快 1800 倍,而且没有浏览器依赖。
上手体验
安装很简单,一行命令:
curl -fsSL https://raw.githubusercontent.com/1jehuang/jcode/master/scripts/install.sh | bash
最好用 Mac 或 Linux,Windows 支持原生和 WSL2。
装完直接:
# 启动交互模式
jcode
# 或者非交互跑一条命令
jcode run "给我解释这个项目是干什么的"
它支持多种大模型提供商:Claude、OpenAI、Gemini、Copilot、Azure,甚至 Ollama(本地跑开源模型)。
这意味着你可以用着同一个工具,白天连 Claude 写生产代码,晚上切到本地模型玩实验项目,不用来回切换工具。
如果你之前用过 Claude Code 或者 Cursor,jcode 还提供了一个 /resume 命令——可以直接接续其他工具的 session 继续工作。Claude Code 跑崩了?jcode 接上就行。
AI 编码助手这个品类现在卷得不行了,jcode 算是后起之秀里比较狠的一个。
项目地址
GitHub:https://github.com/1jehuang/jcode
目前 3.7k Star(将近 4 千),Weekly 增速很猛,属于那种过段时间再看可能已经破万的项目。建议先 Star 一下,免得以后找不到了。
说几句实话
jcode 这东西,怎么说呢,强是真的强,但目前还不是那种拿过来就能替代现有工作流的成熟度。
文档嘛——有那么亿点点散。你得自己翻 README 和各种 .md 文件去拼凑理解。作者显然是那种"我先把功能做出来再说"的猛人,UI/UX 的打磨还在路上。
但如果你: - 经常同时开多个 AI 编码会话 - 被 Cursor/Claude Code 的内存占用搞烦了 - 喜欢折腾最新最骚的工具 - 对 Rust 生态有信仰加成
那 jcode 绝对值得一试。
本文使用 MGO 编辑并发布
关注"何三笔记",回复"mgo" 免费下载使用