Star 数:8.8K+ 隐私优先的多模态 AI 笔记与播客生成工具 open-notebook 是 lfnovo 开发的开源项目,提供隐私导向的 Notebook LM 替代方案,支持自托管部署与高度自定义。它集成多模态内容处理、AI 驱动的智能交互与高级播客生成,适用于研究笔记、知识管理与内容创作。项目采用 MIT 许可,强调数据控制与灵活扩展,已成为隐私敏感用户的热门选择。
一、部署教程
下面按「快速启动」「典型部署(Docker)」「注意事项」三个层级说明。
1. 快速启动(最简单)
- 在命令行执行:
git clone https://github.com/lfnovo/open-notebook.git cd open-notebook cp .env.example docker.env docker compose -f docker-compose.full.yml up -d这个流程在用户实测文章中提到在 WSL2 或 Linux 环境运行即可。 - 启动后,浏览器访问
http://localhost:8502/notebooks即可。 - 系统要求(官方)包括:Docker 引擎、至少 4 GB RAM、2 GB 空闲磁盘空间。
2. 典型部署(使用 Docker 镜像 + 环境变量)
以下是较完整流程,适合你在家/学校用一台机器(如 PC 或 云主机)部署:
- 克隆仓库:
git clone https://github.com/lfnovo/open-notebook.git cd open-notebook - 拷贝环境配置:
cp .env.example docker.env - 编辑
docker.env(或.env)设置关键环境变量,例如你的 AI 模型 API KEY、数据库连接等。 - 使用镜像运行(示例):
docker run -d \ --name open-notebook \ -p 8502:8502 -p 5055:5055 \ -v ./notebook_data:/app/data \ -v ./surreal_data:/mydata \ -e OPENAI_API_KEY=你的_key \ -e SURREAL_URL="ws://localhost:8000/rpc" \ -e SURREAL_USER="root" \ -e SURREAL_PASSWORD="root" \ -e SURREAL_NAMESPACE="open_notebook" \ -e SURREAL_DATABASE="production" \ lfnovo/open_notebook:v1-latest-single - 或使用
docker-compose:项目中提供了docker-compose.full.yml(或类似)以方便管理。 - 访问界面:
http://<你的主机>:8502即可登录/注册。 - 后续你要进入 “模型提供商”设置界面,为系统配置你选用的 LLM 接口。
3. 注意事项 & 提示
- 如果你是在 Windows 下,建议使用 WSL2 + Docker 来运行。
- 你需要准备至少一个 AI 模型的 API KEY(如 OpenAI、Anthropic 等)或准备本地模型。否则 AI 辅助功能不能用。
- 数据库:默认使用 SurrealDB 作为后台数据存储。你必须配置好
SURREAL_URL、用户名与密码。 - 资源消耗:虽然基础可运行,但大量文档、多用户或本地 LLM 可能需要更高配置。
- 升级须注意:如果你从旧版升级到 v1.0 以上,镜像标签/端口可能变更。
- 镜像标签说明:建议使用
v1-latest或v1-latest-single;新用户可忽略“Breaking Changes”提醒。
二、AI 模型支持情况
总结一下 Open Notebook 支持哪些模型/提供商,以及支持本地模型的情况。
支持的模型/提供商
根据官方文档,该系统支持多种 LLM 提供商:
- OpenAI(GPT 系列)
- Anthropic(Claude 系列)
- Google Gemini / Vertex AI 等
- OpenRouter(代理其它模型)
- 本地模型通过 Ollama 或其它本地主机部署方式也支持。
本地模型 &隐私控制
- 项目强调「数据完全在你控制」的自托管能力。
- 如果你选择本地 LLM 或在内部网络中运行,理论上可以不将数据传给外部服务。
- 支持向量搜索、全文检索、聊天上下文控制,从而增强 AI 辅助功能。
使用建议(结合你的学习需求)
- 既然你是在做深度学习/物理数学/哲学跨学科笔记,推荐选择一个比较强的 LLM 提供商(如 OpenAI GPT-4 系列)作为主模型,用于生成摘要、解析文档、形成“语言系统”的思考结构。
- 若担心成本或数据隐私,可以考虑部署本地模型(如果你有机器资源的话)——虽然可能精度不如云模型,但控制性强。
- 你可将模型提供商作为“可替换模块”来看待:项目支持多个提供商,使你未来可切换,不被锁定。
- 对于你这种打算整合多媒体资料(PDF、视频、文章)并构建“精神结构”的用途,本地控制 +向量搜索+多模型支持 是一个优势。
GitHub:https://github.com/lfnovo/open-notebook
油管:https://youtu.be/Q71fFV0CS2I