大家好,我是何三,独立开发者

最近刷 Hacker News 的时候,一个叫 Moltis 的项目直接上了首页,GitHub 2.4K Star,增速挺猛的。

我花了点时间研究了一下,发现这东西确实有点东西——用 Rust 写的 AI Agent 服务器,一个二进制文件,自带沙箱隔离,零 unsafe 代码。

今天跟大家聊聊它到底解决了什么问题,凭什么值得关注。

moltis_cover

现在的 AI Agent,用着真的放心吗?

说实话,现在主流的 AI Agent 方案,用起来多少有点"糙"。

OpenClaw,TypeScript 写的,430K 行代码,依赖 Node.js 运行时,沙箱只是应用级别的。NanoClaw 更狠,500 行代码就搞了个 Agent 循环——轻量是轻量了,但安全呢?功能呢?

还有一个现实问题:你让 AI Agent 帮你执行命令,它到底在不在沙箱里跑的?你的 API Key 有没有泄露风险?

这些问题,Moltis 的开发者显然想清楚了。

Moltis 是什么?一句话说清楚

一个自托管的、持久化的 AI Agent 服务器。

翻译成人话就是:你把它部署在自己的机器上(Mac Mini、树莓派、云服务器都行),它帮你对接多个 LLM 提供商(OpenAI、Anthropic、本地模型),同时提供 Web UI、Telegram Bot、Discord Bot 等多种交互方式,所有数据都留在你本地。

关键特性:

  • Rust 写的,单二进制文件,没有 Node.js 依赖
  • 沙箱隔离,每条命令都在 Docker 或 Apple Container 里执行,不碰宿主机
  • 零 unsafe 代码(workspace 级别直接禁止)
  • 3100+ 测试,46 个模块化 crate,可独立审计
  • 内置语音(15+ 提供商)、记忆系统、MCP 协议、定时任务……

moltis_01

和其他方案比,差异在哪?

我列几个关键对比:

安全性:Moltis 的 Agent 循环核心只有约 5000 行代码。对比 OpenClaw 的 430K 行——代码越少,审计越容易,漏洞越少。而且 Rust 的所有权系统天然就比 GC 语言更安全。

沙箱:不是那种"假装"的应用级沙箱,而是真正的 Docker + Apple Container 隔离,每个会话独立。工具执行的环境和你的宿主机完全隔绝。

认证:支持密码、Passkey(WebAuthn)、API Key,还内置了一个加密 Vault(XChaCha20-Poly1305 + Argon2id)。Secret 处理用的是 secrecy::Secret,drop 时自动清零内存,工具输出中也会自动遮蔽。

语音:不是插件,是内置的。8 个 TTS 提供商 + 7 个 STT 提供商,开箱即用。

记忆:SQLite + 全文搜索 + 向量搜索的混合方案。跨会话回忆、自动上下文压缩,还兼容 Cursor 的项目上下文格式。

架构长什么样?

Moltis 的架构其实很清晰,核心分三层:

moltis_02

入口层:Web UI、Telegram、Discord、Teams 这些通道,统一走 WebSocket 接入 Gateway。

服务层:Gateway Server(基于 Axum)负责 HTTP/WS 和认证。下面是 Chat Service,里面有 Agent Runner(Agent 循环)、Tool Registry(工具注册)和 Provider Registry(多模型管理)。

数据层:会话持久化用 JSONL,记忆系统用 SQLite(支持向量搜索和全文搜索),事件系统支持 15 种 Hook。

最底下是 Sandbox:所有命令执行都在隔离容器里。

整个核心代码 46 个 crate 模块化设计,核心 Agent 循环 + Provider 模型就 ~5000 行。这意味着什么?你想审计安全性,不需要读 20 万行代码,读 5000 行就够了。

动手试试

Moltis 的安装真的很简单。

macOS / Linux 一行命令:

curl -fsSL https://www.moltis.org/install.sh | sh

或者用 Homebrew:

brew install moltis-org/tap/moltis

Docker 也支持:

docker pull ghcr.io/moltis-org/moltis:latest

装好之后启动:

moltis

打开 http://localhost:13131,首次运行终端会打印一个 setup code,输入到 Web UI 里设置密码就行。

然后配置 LLM 提供商。最简单的方式是设环境变量:

export ANTHROPIC_API_KEY="sk-ant-..."
# 或者
export OPENAI_API_KEY="sk-..."

重启 Moltis,模型就自动出现在模型选择器里了。

如果你想用本地模型(完全离线),Web UI 的 Settings → Providers 里也有 Local LLM 选项。

连接 Telegram Bot:

# 1. 找 @BotFather 创建 bot,拿到 token
# 2. Moltis Web UI → Settings → Telegram → 输入 token → Save
# 3. 直接给你的 bot 发消息

配置 MCP 服务器:

# moltis.toml
[mcp.servers.github]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-github"]
env = { GITHUB_TOKEN = "ghp_..." }

开启长期记忆:

[memory]
provider = "openai"
model = "text-embedding-3-small"

把 Markdown 文件丢到 ~/.moltis/memory/ 目录下,Moltis 就能跨会话检索了。

安全设计值得一提

Moltis 在安全上的思考确实比较深。

  • SSRF 防护:DNS 解析后拦截回环地址、私有地址、链路本地地址
  • Origin 校验:拒绝跨源的 WebSocket 升级请求
  • Hook 门控BeforeToolCall 钩子可以在每次工具调用前检查和拦截
  • 自动检查点:在修改技能和记忆前自动创建快照,支持回滚
  • 上下文文件威胁扫描:检测上传文件中的潜在风险

对于有安全洁癖的开发者来说,这套设计确实让人安心。

适合谁用?

我觉得这几类人会感兴趣:

自托管爱好者:不想把数据交给第三方云服务,想完全掌控自己的 AI Agent。

独立开发者 / 小团队:需要一个安全、功能完整的 AI 助手,能跑在便宜的服务器甚至树莓派上。

对安全有要求的企业:3100+ 测试、零 unsafe 代码、模块化可审计,代码层面就扛得住审视。

多通道需求:想同时通过 Web、Telegram、Discord 跟 AI Agent 交互,一个服务全搞定。

一些个人判断

Moltis 2.4K Star、上 Hacker News 首页,说明社区确实认可这种"安全优先、自托管、单二进制"的方向。

但我也注意到,它和 OpenClaw 生态有兼容性设计(支持导入 OpenClaw 配置、兼容 OpenClaw 技能商店),说明作者不是想"推翻"谁,而是在提供一个更安全、更可审计的替代方案。

Rust 在 AI 基础设施领域的渗透越来越深,从 Tauri 到 Moltis,"安全+性能"的组合正在成为一种差异化竞争力。

项目地址https://github.com/moltis-org/moltis

文档https://docs.moltis.org

MIT 协议,可以放心用。

本文使用 MGO 编辑并发布
关注"何三笔记",回复"mgo" 免费下载使用