能“查、跑、想”的开源 AI 搜索智能体
MiroThinker v1.5 是一款顶尖的开源 AI 搜索智能体,搭载 256K 上下文窗口,单任务支持最多 400 次工具调用,可实现深度网络调研、代码执行与多步骤推理功能。该工具在 HLE-Text(39.2%)、BrowseComp(69.8%)、GAIA(80.8%)等基准测试中均位居榜首,以低成本优势超越其他免费智能体。
MiroThinker v1.5 是一款顶尖的开源 AI 搜索智能体,搭载 256K 上下文窗口,单任务支持最多 400 次工具调用,可实现深度网络调研、代码执行与多步骤推理功能。该工具在 HLE-Text(39.2%)、BrowseComp(69.8%)、GAIA(80.8%)等基准测试中均位居榜首,以低成本优势超越其他免费智能体。
MemU 是一款为 AI 系统打造的记忆管理工具,可将对话、文档、媒体素材等各类信息转化为结构化记忆,并存储在清晰的三层文件系统中。该工具既支持高速的嵌入向量检索,也能实现基于大语言模型的深度检索,兼容多类数据格式,提供云端部署与本地自建两种方案,同时配备简洁易用的接口。借助 MemU,你能构建出真正具备记忆能力的 AI 智能体:可留存过往交互记录、在需要时精准调取对应上下文
油管:https://youtu.be/Q6fJsOuuFRM
Polymarket Agents 是一款免费开源的 Python 框架,用于构建可在 Polymarket 预测型交易市场中自主完成交易的 AI 智能体。该框架集成了 Polymarket API,可从新闻资讯和交易投注数据中提取信息,借助检索增强生成(RAG)技术实现智能信息检索,并提供大语言模型(LLM)工具来落地各类交易策略 —— 例如当 YES/NO 类型交易标的的平均成本跌破 1 美元时,识别这类存在稳赚空间的低价标的并完成交易。
Vibe Kanban 是一款本地网页端工具,可通过单一的看板式界面,实现多款 AI 编码代理(Claude Code、Gemini CLI、Amp 等)的运行、管理与成果审核;工具支持让各 AI 代理在独立的 Git 工作树中运行,可选择并行或串行执行模式,同时实时展示运行进度、代码差异,还提供启动开发服务、创建拉取请求的快捷功能,能让你的主代码库始终保持安全、规整的状态。
Mini-SGLang 是一款轻量易读的推理框架(仅约 5000 行 Python 代码),通过基数缓存、分块预填充、重叠调度、张量并行,以及 FlashAttention/FlashInfer 内核等优化方案,实现大语言模型的高速运行与服务部署。该框架依赖 CUDA 环境,支持源码快速安装,可启动兼容 OpenAI 规范的 API 或交互式终端,适配单 / 多 GPU 部署,能以低延迟、可扩展吞吐量完成模型(如通义千问、Llama 系列)的测试与落地。核心优势:提供透明可修改的引擎,助力研发、基准测试或生产环境下,快速落地高效的大语言模型推理服务。
油管:https://youtu.be/6fWDo812hsY
pg-aiguide 是一款专为 AI 编码工具打造的 PostgreSQL 辅助工具,它通过对 PostgreSQL 官方文档的语义检索,结合数据库模式 / 索引设计的最佳实践,以及 TimescaleDB 等扩展插件的相关知识,帮助 AI 生成更优质的 PostgreSQL 代码。你可免费将其部署为公共 MCP 服务器,或作为 Claude 插件集成到 Cursor、VS Code 等工具中,实现一键配置启用。
油管:https://youtu.be/gSW2BQmYhFs
vLLM-Omni 是一款免费开源工具,能够高速、便捷、低成本地部署支持文本、图像、视频、音频的人工智能模型。它基于 vLLM 框架构建,借助智能内存优化方案、任务并行处理机制,以及跨显卡灵活资源共享技术,实现了极致运行速度。该工具可使吞吐量提升两倍、延迟降低 35%,并且能通过 OpenAI 接口直接对接 Hugging Face 模型,部署流程简单高效。
油管:https://youtu.be/3_RD8hgUsDQ
语析(Yuxi-Know)是一款基于 LangGraph、Vue.js、FastAPI 和 LightRAG 构建的免费开源平台,可借助检索增强生成(RAG)知识库与知识图谱创建智能体。其最新测试版本 v0.4.0-beta(2025 年 12 月发布)新增了文件上传、多模态图像支持、文件生成思维导图、评估工具、暗黑模式以及优化后的图谱可视化功能。该平台无需从零开发,就能帮助用户快速构建并部署适用于问答、分析和检索场景的定制化人工智能体,大幅节省开发时间与精力。
油管:https://youtu.be/55yvZdCTuFY
NexaSDK 可通过单条命令在 CPU、GPU 及 NPU 上本地运行人工智能模型,支持 GGUF、MLX 及 .nexa 格式,并且针对安卓和 macOS 系统提供 NPU 优先调度支持,以实现高速的多模态(文本、图像、音频)推理,同时配备兼容 OpenAI 标准的应用程序接口,便于快速集成。
借助该工具,用户可在笔记本电脑、手机及嵌入式系统中部署低延迟、高隐私性的端侧人工智能能力,既能降低云端计算成本、减少数据暴露风险,又能直接在目标硬件上即时部署和测试新模型,助力开发流程提速,优化用户体验。
油管:https://youtu.be/g58gOR7yiEw
该教程的内容十分全面,涵盖了 AI 智能体的基础概念、发展历史,还包含了实操项目,比如创建专属的 AI 智能体框架、构建多智能体系统。课程会教授多项实用技能,比如记忆管理、上下文处理、通信协议,以及大语言模型的训练方法。跟着这个教程学习,你可以深入理解相关知识,同时获得真实的编码实践经验,从单纯使用 AI 模型,进阶到自主设计智能系统。这能够帮你培养高阶的 AI 技能,这些技能对求职、科研,或是打造创新 AI 应用都很有帮助。相关学习材料在线上发布,随时都可以轻松获取。
油管:https://youtu.be/D1UUyKB3bfc
一段谁也不敢改的“超级 Prompt”。
wshobson/agents 这个项目,关注的正是这个问题本身:
当 AI 不再只是聊天,而是参与真实任务时,我们应该如何“工程化”它。
油管:https://youtu.be/GDcv83yuFI0
针对这一问题,LEANN(Light Embedding-based AI Neural Network)项目提出了一种创新的解决方案。LEANN不仅显著减少了存储需求,而且通过高效的计算方式,提供了一个强大的、隐私保护的个人AI助手系统。它采用了按需计算嵌入(on-demand embedding computation)技术和图结构选择性重新计算(graph-based selective recomputation)方法,旨在以较低的存储消耗为用户提供准确的人工智能服务。
报道:https://youtu.be/YRoJnaZR2hw