大家好,我是何三,独立开发者

最近在折腾 RAG 方案,翻了一圈开源项目,发现了一个让我眼前一亮的东西——Onyx。
GitHub 上 22k Star,Python + TypeScript 写的,定位是"开源 AI 平台"。说得再直白一点:一个开箱即用的企业级 AI 助手,带 RAG、Agent、Web 搜索、代码执行,还能一条命令部署。
之前用过 Dify、FastGPT、AnythingLLM 这些,各有各的长处。但 Onyx 给我的感觉不太一样——它更像一个"把所有东西都做到位了"的产品,而不是一个"技术 demo"。
今天就聊聊这个项目到底值不值得关注。
Onyx 是什么
Onyx 前身叫 Danswer,后来独立出来改名 Onyx。它做的事情一句话概括:
给 LLM 接上你的文档、应用和数据,变成一个能回答任何问题的 AI 助手。
你公司的 Notion 文档、Google Drive、Slack 消息、数据库、甚至随便一个网页——全部可以索引。然后用户通过 Chat 界面提问,Onyx 会从这些数据源里检索相关信息,结合 LLM 生成回答。
这就是标准的 RAG(Retrieval-Augmented Generation)流程,但 Onyx 把它做得很完整。

几个让我印象深刻的特性
1. Agentic RAG——不是简单的向量检索
很多 RAG 方案就是"文档切块 → 向量化 → 检索 → 塞进 Prompt",流程很粗暴。Onyx 不这么干。
它的 RAG 是 Agent 驱动的。AI 会判断你的问题该用什么策略:需要精确语义检索?还是关键词匹配?或者干脆去搜一下网页?多步推理怎么做?
据说 Onyx 团队最近还搞了个 Benchmark 排行榜,专门评测 RAG 系统的检索质量。能在自己领域里带头建评测,说明对这块是有信心的。
2. Deep Research——深度研究
这个功能有点意思。不是一次性给你一个答案,而是像人一样"多步研究":先搜一轮,看看缺什么,再针对性地查,最后给你一份有结构的深度报告。
有点像 Perplexity 的 Pro Search,但是开源的、可以自己部署的。
3. 50+ 数据连接器
这个数字在开源 RAG 项目里算很能打了。
内置的连接器覆盖:
- 文件类:PDF、Word、PPT、TXT、Markdown
- 云存储:Google Drive、SharePoint、S3
- 协作工具:Slack、Notion、Confluence、Jira
- 数据库:PostgreSQL、MySQL 等
- 网页:内置爬虫,支持 Serper、Google PSE、Brave Search、SearchXNG
- API/MCP:通过 MCP 协议接入外部应用
而且还有 MCP 支持——这是最近 AI 圈很火的标准协议,让 Agent 可以调用外部工具。
4. 代码执行沙箱
Onyx 可以在安全沙箱里跑代码。分析数据、画图表、处理文件,都不用离开对话界面。这个对数据分析师来说很实用。
5. 自定义 Agent
你可以创建自己的 AI Agent,给它配置特定的指令(System Prompt)、知识库和可执行的动作。相当于把 Onyx 变成一个"Agent 工厂"。
6. 语音模式
支持文字转语音和语音转文字,可以像用 ChatGPT 的语音功能一样和 Onyx 对话。
部署体验:一条命令的事
Onyx 提供两种部署模式:Lite 和 Standard。
Lite 模式
轻量版,就是一个 Chat UI + Agent 功能。内存 1GB 以内就能跑,适合个人体验。
Standard 模式
完整版,包含向量数据库、后台 Worker、推理服务等组件,适合团队和正式环境。
最省事的方式:
curl -fsSL https://onyx.app/install_onyx.sh | bash

这一行命令会自动安装 Docker 并拉起 Onyx 容器。跑起来之后浏览器打开 http://localhost:8080 就能用了。
如果你已经有 Docker 环境,也可以直接用 Docker Compose 部署,或者用 Helm 在 Kubernetes 上跑。官方文档都有详细说明。
LLM 兼容性
Onyx 不绑定任何特定的模型提供商。
云服务:OpenAI、Anthropic(Claude)、Google Gemini 等
自部署:Ollama、vLLM、LiteLLM、以及各种兼容 OpenAI API 的本地推理框架
你甚至可以同时配置多个模型,让不同的场景用不同的模型。比如简单问答用便宜的小模型,复杂分析用大模型。
这种灵活性在开源项目里并不常见。很多 RAG 工具要么只支持 OpenAI,要么对自部署模型的支持很粗糙。Onyx 在这方面做得比较细致。
企业级能力

如果你是个人玩玩,Lite 模式就够了。但如果想在公司里用,Standard 模式(尤其是企业版)提供了这些能力:
- SSO 单点登录:Google OAuth、OIDC、SAML,支持团队同步和 SCIM 用户管理
- RBAC 权限控制:对 Agent、Action 等敏感资源做细粒度访问控制
- 使用分析:按团队、LLM、Agent 维度的用量统计
- 查询审计:记录所有 AI 交互,确保合规
- 自定义代码:可以跑自定义代码来过滤敏感内容或移除 PII
- 白标定制:自定义 Logo、图标、Banner
这些功能很多开源 RAG 项目要么没有,要么在付费版里。Onyx 社区版(CE)基于 MIT 协议,核心功能免费。
技术栈一览
从 GitHub 上的语言分布来看:
| 语言 | 占比 |
|---|---|
| Python | ~58% |
| TypeScript | ~28% |
| Go | ~1.5% |
| JavaScript | ~1.1% |
| Rust | ~0.2% |
后端主要是 Python,前端是 TypeScript/Next.js,整体架构比较现代。Go 和 Rust 用来写一些性能敏感的组件。
跟其他方案对比
简单说一下我的感受,不一定客观:
对比 Dify:Dify 更像一个"低代码 AI 应用开发平台",Workflow 功能很强。Onyx 更像"一个功能完备的 AI 助手产品",RAG 和企业特性做得更深。
对比 AnythingLLM:AnythingLLM 更轻量,适合个人或小团队。Onyx 在企业级功能上明显更成熟(SSO、RBAC、审计这些)。
对比 FastGPT:FastGPT 国内的文档生态好,微信集成方便。Onyx 在数据连接器的丰富度和 RAG 质量上更胜一筹。
选哪个取决于你的场景。如果是个人用或者国内团队,FastGPT 和 AnythingLLM 可能更顺手。如果是要在企业里正式部署、需要 SSO 和权限管理,Onyx 值得认真考虑。
值不值得试?
我的建议是:值得,尤其是如果你在做 RAG 相关的事情。
几个理由:
- 成熟度高。22k Star,活跃开发中,不是那种写了一半就废弃的项目
- RAG 质量好。Agent 驱动的检索策略,不是简单的向量匹配
- 部署简单。一条命令,Docker 跑起来
- 不绑定模型。想用什么模型就用什么
- 连接器丰富。50+ 数据源,大部分场景都能覆盖
当然也有需要注意的:
- Standard 模式资源需求不低,推荐 4GB+ 内存
- 完整功能体验需要配置向量数据库和搜索引擎
- 中文文档相对少,主要看英文官方文档
项目地址:https://github.com/onyx-dot-app/onyx
不想自己部署的话,Onyx 也有云服务可以免费试用:https://cloud.onyx.app
如果你正在给团队找一个好用的 AI 知识库方案,Onyx 是一个值得花半天时间认真试试的选择。
本文使用 MGO 编辑并发布
关注"何三笔记",回复"mgo" 免费下载使用