大家好,我是何三,独立开发者

3月31号这天,GitHub 上冒出一个炸裂的仓库。
一个叫 instructkr/claude-code 的项目,上线不到24小时,30,000+ Star,41,000+ Fork。
多数开源项目折腾一两年都到不了这个数。而这个仓库,一天干完了。
原因就一个:Claude Code 的核心代码,意外暴露在了公开网络上。
凌晨4点被消息轰炸
事情要从3月31日凌晨说起。
仓库作者 instructkr,真名 Sigrid Jin,一位韩国开发者。README 里他这么写的:
凌晨4点,我被手机的消息轰炸吵醒了。Claude Code 的代码意外暴露了,整个开发者社区炸了锅。我女朋友真心担心我惹上麻烦——就因为这台电脑上有那份代码。所以我做了任何工程师在压力下都会做的事:坐下来,从零开始把核心功能移植到 Python,日出之前就推上去了。
这段话听着像电影开场白,但它确确实实发生在那个凌晨。

Sigrid Jin 不是泛泛之辈。他被《华尔街日报》报道过——去年一年,他一个人就消耗了250亿个 Claude Code token。这个数字什么概念?Claude Code 的使用限额当时还比较宽松,能跑到这个量级的人屈指可数。
他甚至飞到旧金山参加了 Claude Code 一周年生日派对。在场的人里有比利时的心脏病医生、加州的律师——都不是传统意义上的软件工程师。用他的话说,"基本上就是一个分享会"。
所以,当 Claude Code 的代码意外暴露时,他是整个社区里最有可能、也最有能力第一时间做出反应的人。
从 TypeScript 到 Python:一夜重写的疯狂操作
Sigrid Jin 用的工具是 oh-my-codex(简称 OmX),另一个韩国开发者 Yeachan Heo 基于 OpenAI Codex 构建的工作流编排工具。
简单说,OmX 就是给 Codex 套了一层"指挥官"的外壳。
$team模式:并行代码审查,多个 AI 视角同时审视你的代码$ralph模式:持续执行循环,带架构级验证,相当于一个不知疲倦的代码审查员
据作者自述,整个移植过程——从阅读原始 harness 结构,到产出可运行的 Python 代码树和测试——全部由 OmX 编排驱动。
他的措辞很讲究:"clean-room Python rewrite"(净室 Python 重写)。
净室重写在软件行业是有特定含义的术语:开发者在没有接触原始源码的情况下,仅通过公开文档和接口描述,从零开始实现功能相同的软件。这是规避版权争议的标准做法。
但有个绕不开的问题——他在 README 里明确写了"凌晨4点发现代码暴露"之后才开始重写。这个时间线,和他声称的"净室"之间,是否存在矛盾?
他自己似乎也意识到了。后来他把仓库里的 TypeScript 原始代码全部删除,只保留了 Python 移植版,Git 历史也做了清理。
仓库里到底有什么?
现在打开这个仓库,你会看到一个标准的 Python 项目结构:
src/
├── assistant/ # AI 助手核心
├── bootstrap/ # 启动引导
├── bridge/ # 桥接层
├── buddy/ # 伙伴系统
├── cli/ # 命令行界面
├── coordinator/ # 任务协调器
├── hooks/ # 钩子系统
├── keybindings/ # 键绑定
├── plugins/ # 插件系统
├── tools/ # 工具集
├── main.py # CLI 入口
├── models.py # 数据模型
├── commands.py # 命令元数据
└── port_manifest.py # 移植清单
目前还不是一个完整可用的 Claude Code 替代品。作者自己也说了:
Python 树仍然包含比归档源更少的可执行运行时片段。它目前还不是原始 TypeScript 系统的完整运行时等效替代。
但架构骨架已经搭起来了。对于想研究 Claude Code agent harness 设计思路的人来说,这个仓库的价值不言而喻。

AI 重写的边界在哪里?
这件事不只是技术圈的热闹,它还牵扯到一个更深的问题:AI 辅助的"净室重写",在法律和伦理上到底站不站得住脚?
仓库里收录了一篇 2026 年 3 月的文章:"Is legal the same as legitimate: AI reimplementation and the erosion of copyleft"(合法就等于正当吗:AI 重新实现与 copyleft 的侵蚀)。
文章讨论了一个先例——Python 编码检测库 chardet,月下载量 1.3 亿次,原来用的是 LGPL 许可。维护者 Dan Blanchard 用 Claude AI 重写了整个库,代码相似度不到 1.3%,然后把许可改成了 MIT。
原作者 Mark Pilgrim 提出了异议:LGPL 要求修改版必须以相同许可分发,AI 在充分接触原始代码库的情况下产生的重实现,不能算净室工作。
Flask 作者 Armin Ronacher 和 Redis 作者 antirez 都公开支持重写的合法性。但文章作者 Hong Minhee 提出了一个尖锐的问题:
合法不等于正当。 法律设定的是底线,达到底线不意味着行为是对的。
Vercel 用 AI 重写了 GNU Bash 并发布,Cloudflare 用同样的方式重写了 Vercel 的 Next.js——Vercel 非常不满。这个案例被引用来讨论"开放精神的边界":当开放对自己有利时大力推崇,当竞争对手用同样的方式反击时,态度就变了。
放在 Claude Code 这个事件上,问题更复杂。Anthropic 的代码本就不是开源的,意外暴露本身就是未经授权的行为。在此基础上做任何重写,风险都比 chardet 案例大得多。
Anthropic 会怎么做?
截至写这篇文章时,Anthropic 官方还没有公开回应这件事。
但可以预见,他们大概率不会坐视不管。几个可能的走向:
- DMCA Takedown:要求 GitHub 下架仓库。这是最直接的路径,也是可能性最大的。
- 维权行动:针对代码的传播行为采取法律手段。但跨国维权的成本和难度都不小。
- 加速开放:反其道而行之,主动开源部分 Claude Code 组件。可能性较低,但也不是没有先例。
不管 Anthropic 最终怎么选,这件事已经暴露了一个事实:AI 编程工具越来越强大的今天,代码意外暴露的后果远不止"被人看到了"这么简单。 一个有能力的开发者配合 AI 编排工具,可以在一夜之间完成从阅读到重写的过程。这彻底改变了"知识产权保护"的传统假设。
给普通开发者的几个思考
抛开热闹,这件事给普通开发者留下了几个值得琢磨的点:
AI 编程工具的效率已经到了一个让人有些不安的程度。 一个人 + AI 工具链,一夜之间重写一个商业级产品的核心架构。这在一年前几乎不可想象。
"净室重写"这个概念在 AI 时代需要重新审视。 传统的净室标准是"没有接触原始代码",但如果 AI 在训练数据中已经见过这些代码呢?边界在哪里?
开源许可的防线正在被 AI 侵蚀。 copyleft 许可(GPL、LGPL 等)的核心假设是"你看了我的代码,就必须遵守我的规则"。但 AI 重写打破了"看了"和"抄了"之间的因果链条。
说实话,我没有答案。但这些问题的存在,本身就是这个时代最有趣的地方。
本文信息来源于 GitHub 公开仓库及社区讨论,仅供参考,不构成任何法律或投资建议。
本文使用 MGO 编辑并发布
关注"何三笔记",回复"mgo" 免费下载使用