开源 Notebook LM 替代品

Star 数:8.8K+ 隐私优先的多模态 AI 笔记与播客生成工具 open-notebook 是 lfnovo 开发的开源项目,提供隐私导向的 Notebook LM 替代方案,支持自托管部署与高度自定义。它集成多模态内容处理、AI 驱动的智能交互与高级播客生成,适用于研究笔记、知识管理与内容创作。项目采用 MIT 许可,强调数据控制与灵活扩展,已成为隐私敏感用户的热门选择。

一、部署教程

下面按「快速启动」「典型部署(Docker)」「注意事项」三个层级说明。

1. 快速启动(最简单)

  • 在命令行执行:git clone https://github.com/lfnovo/open-notebook.git cd open-notebook cp .env.example docker.env docker compose -f docker-compose.full.yml up -d 这个流程在用户实测文章中提到在 WSL2 或 Linux 环境运行即可。
  • 启动后,浏览器访问 http://localhost:8502/notebooks 即可。
  • 系统要求(官方)包括:Docker 引擎、至少 4 GB RAM、2 GB 空闲磁盘空间。

2. 典型部署(使用 Docker 镜像 + 环境变量)

以下是较完整流程,适合你在家/学校用一台机器(如 PC 或 云主机)部署:

  • 克隆仓库:git clone https://github.com/lfnovo/open-notebook.git cd open-notebook
  • 拷贝环境配置:cp .env.example docker.env
  • 编辑 docker.env(或 .env)设置关键环境变量,例如你的 AI 模型 API KEY、数据库连接等。
  • 使用镜像运行(示例):docker run -d \ --name open-notebook \ -p 8502:8502 -p 5055:5055 \ -v ./notebook_data:/app/data \ -v ./surreal_data:/mydata \ -e OPENAI_API_KEY=你的_key \ -e SURREAL_URL="ws://localhost:8000/rpc" \ -e SURREAL_USER="root" \ -e SURREAL_PASSWORD="root" \ -e SURREAL_NAMESPACE="open_notebook" \ -e SURREAL_DATABASE="production" \ lfnovo/open_notebook:v1-latest-single
  • 或使用 docker-compose:项目中提供了 docker-compose.full.yml(或类似)以方便管理。
  • 访问界面:http://<你的主机>:8502 即可登录/注册。
  • 后续你要进入 “模型提供商”设置界面,为系统配置你选用的 LLM 接口。

3. 注意事项 & 提示

  • 如果你是在 Windows 下,建议使用 WSL2 + Docker 来运行。
  • 你需要准备至少一个 AI 模型的 API KEY(如 OpenAI、Anthropic 等)或准备本地模型。否则 AI 辅助功能不能用。
  • 数据库:默认使用 SurrealDB 作为后台数据存储。你必须配置好 SURREAL_URL、用户名与密码。
  • 资源消耗:虽然基础可运行,但大量文档、多用户或本地 LLM 可能需要更高配置。
  • 升级须注意:如果你从旧版升级到 v1.0 以上,镜像标签/端口可能变更。
  • 镜像标签说明:建议使用 v1-latest 或 v1-latest-single;新用户可忽略“Breaking Changes”提醒。

二、AI 模型支持情况

总结一下 Open Notebook 支持哪些模型/提供商,以及支持本地模型的情况。

支持的模型/提供商

根据官方文档,该系统支持多种 LLM 提供商:

  • OpenAI(GPT 系列)
  • Anthropic(Claude 系列)
  • Google Gemini / Vertex AI 等
  • OpenRouter(代理其它模型)
  • 本地模型通过 Ollama 或其它本地主机部署方式也支持。

本地模型 &隐私控制

  • 项目强调「数据完全在你控制」的自托管能力。
  • 如果你选择本地 LLM 或在内部网络中运行,理论上可以不将数据传给外部服务。
  • 支持向量搜索、全文检索、聊天上下文控制,从而增强 AI 辅助功能。

使用建议(结合你的学习需求)

  • 既然你是在做深度学习/物理数学/哲学跨学科笔记,推荐选择一个比较强的 LLM 提供商(如 OpenAI GPT-4 系列)作为主模型,用于生成摘要、解析文档、形成“语言系统”的思考结构。
  • 若担心成本或数据隐私,可以考虑部署本地模型(如果你有机器资源的话)——虽然可能精度不如云模型,但控制性强。
  • 你可将模型提供商作为“可替换模块”来看待:项目支持多个提供商,使你未来可切换,不被锁定。
  • 对于你这种打算整合多媒体资料(PDF、视频、文章)并构建“精神结构”的用途,本地控制 +向量搜索+多模型支持 是一个优势。

GitHub:https://github.com/lfnovo/open-notebook
油管:https://youtu.be/Q71fFV0CS2I