大家好,我是何三,独立开发者

14 毫秒启动,27.8MB 内存运行——这不是什么轻量级计算器,这是一个完整的 AI 编码助手。

作为对比,Claude Code 启动要 3.4 秒,内存吃掉 386MB。

也就是说,你 Claude Code 还没反应过来,jcode 已经干完一行代码了。一个快了 245 倍,一个省了 13.9 倍内存——这个东西,怎么说呢,就是……就是那种你看到了会觉得"这不可能吧"的玩意儿。

jcode封面

这东西到底是干啥的?

jcode,全称就不翻译了,简单说就是——AI 编码代理的底层框架

你看现在市面上的 AI 编码助手,Cursor、Claude Code、Copilot CLI……本质上都是"代理"模式:你给个任务,AI 自己去读代码、改文件、跑测试、提交。但这些东西基本都是 Python/TypeScript 写的,启动慢、吃内存、开几个会话机器就跪了。

jcode 用 Rust 重写了整个底层,把内存管理和进程调度做到了极致。

说实话,这块我也没完全搞懂,但它的核心设计理念我能说清楚:

传统编码助手 = 一辆大卡车,启动慢、油耗高、拉的东西也多 jcode = 一辆 F1 赛车——不是载货的,是来赛跑的

它不是简单的"用 Rust 重写一遍"就完事了,而是从架构上就不同——内存中的每个会话是真正的轻量级进程,互相隔离但又可以通过服务端协作。你开 10 个会话,它只多占 100MB 内存,其他工具开 10 个会话——好家伙,Cursor 直接吃掉 1.6GB。

说到这个,我突然想起来之前在写 Go 的时候遇到的糟心事——有次开了 6 个 VS Code 窗口 + 2 个 Cursor 会话,32GB 内存直接干满,风扇起飞,隔壁工位的同事都回头看我。换了 jcode 的话,10 个会话才 260MB,感觉风扇终于能寿终正寝了。

内存和速度,数字不会骗人

直接看 README 里贴的 Benchmark,我截几个重点:

性能对比

首帧时间(就是你敲完回车到看到画面的时间):

工具 时间 对比 jcode
jcode 14ms baseline
Claude Code 3437ms 慢了 245 倍
Cursor Agent 1950ms 慢了 139 倍
Copilot CLI 1519ms 慢了 108 倍

单会话内存占用:

工具 PSS 对比 jcode
jcode(基础模式) 27.8MB baseline
Claude Code 386.6MB 多了 13.9 倍
Cursor Agent 214.9MB 多了 7.7 倍
OpenCode 371.5MB 多了 13.4 倍

10 会话内存:

工具 PSS 对比
jcode 260.8MB baseline
Claude Code 2300.6MB 多了 8.8 倍
OpenCode 3237.2MB 多了 12.4 倍

OpenCode 开 10 个会话干到 3.2GB,这谁顶得住啊。

jcode 每个额外会话才加 ~10.4MB,其他工具加一个会话都是 150-300MB 起步。

为什么这么省?因为 Rust 没有 GC,内存分配更紧凑,加上 jcode 自己做了一套极简的渲染引擎——它甚至没有用浏览器渲染那套,而是直接用 Rust 写了个自定义 TUI 框架。说白了,不用 Electron,不用浏览器内核,连渲染都是自己手撸的

不只是快,功能也很硬

光快没用,功能得跟上。

jcode 有几个我觉得很有意思的特性:

1. 自修改模式(Self-Dev)

你让 jcode 进入自修改模式,它会自己去读自己的源码,改代码,编译,然后热重载——全过程不需要你动手。

这就很离谱了。你写个编码助手,然后这个编码助手自己改自己的代码,改完了还能自己重启继续干活。

2. Swarm 多代理协作

这个更夸张——你可以在同一个仓库里 spawn 多个 agent,它们之间自动通信。Agent A 改了文件,Agent B 那边立马收到通知,自动检查冲突。你甚至可以一个当主理人,其他的当打工仔,活儿干完了自动汇总。

多代理这个东西,之前基本都是团队才用得上的概念,jcode 直接让你一个人在终端里搞出一个"编码团队"。

3. Agent Memory

jcode 会把每一次交互嵌入成语义向量,然后自动做相似度匹配。你用久了,它会"记住"你的代码风格、常用的库、喜欢的架构模式——有点像你写代码的时候旁边坐了个老同事,看你写两句就知道你想干什么,然后默默把工具递过来。

4. 自研 Mermaid 渲染器

你没看错,它还自己写了个 Mermaid 渲染器。原因是现有的渲染太慢了,它这个用 Rust 写的新渲染器比原来的 快 1800 倍,而且没有浏览器依赖。

上手体验

安装很简单,一行命令:

curl -fsSL https://raw.githubusercontent.com/1jehuang/jcode/master/scripts/install.sh | bash

最好用 Mac 或 Linux,Windows 支持原生和 WSL2。

装完直接:

# 启动交互模式
jcode

# 或者非交互跑一条命令
jcode run "给我解释这个项目是干什么的"

它支持多种大模型提供商:Claude、OpenAI、Gemini、Copilot、Azure,甚至 Ollama(本地跑开源模型)。

这意味着你可以用着同一个工具,白天连 Claude 写生产代码,晚上切到本地模型玩实验项目,不用来回切换工具

如果你之前用过 Claude Code 或者 Cursor,jcode 还提供了一个 /resume 命令——可以直接接续其他工具的 session 继续工作。Claude Code 跑崩了?jcode 接上就行。

AI 编码助手这个品类现在卷得不行了,jcode 算是后起之秀里比较狠的一个。

项目地址

GitHub:https://github.com/1jehuang/jcode

目前 3.7k Star(将近 4 千),Weekly 增速很猛,属于那种过段时间再看可能已经破万的项目。建议先 Star 一下,免得以后找不到了。

说几句实话

jcode 这东西,怎么说呢,强是真的强,但目前还不是那种拿过来就能替代现有工作流的成熟度。

文档嘛——有那么亿点点散。你得自己翻 README 和各种 .md 文件去拼凑理解。作者显然是那种"我先把功能做出来再说"的猛人,UI/UX 的打磨还在路上。

但如果你: - 经常同时开多个 AI 编码会话 - 被 Cursor/Claude Code 的内存占用搞烦了 - 喜欢折腾最新最骚的工具 - 对 Rust 生态有信仰加成

那 jcode 绝对值得一试。

本文使用 MGO 编辑并发布

关注"何三笔记",回复"mgo" 免费下载使用