繁中

Foundry在您的計算機上運行的本地AI模型

為什麼認真對待「原生人工智慧」

過去兩年,大型號幾乎相當於「雲API」。
通話、計費和擴展都非常方便,但在實際工程中,很快就會遇到三個不可避免的問題:

  • 成本不可控制:只要進入高頻通話,API帳單就成為系統性風險
  • 隱私和合規性:數據是否可以現場發布是要求的一部分
  • 線下/內聯網場景:很多系統並不是誕生在公共網絡環境中

因此,「是否可以在本地運行模型」的問題開始成為極客愛好中的一種工程選擇。

本地鑄造廠,出現在此節點上的項目。

1.項目背景

Foundry-Local來自 微軟,但這不是「模範項目」。

它不提供SOTA模型,也不試圖突破推理速度的極限。
它真正想解決的是一個更具工程意義的問題:

如何將大型模型轉變為「本地可靠的系統組件」。

換句話說,Foundry-Local關心:

  • 模型如何 管理
  • 推理是如何的 已提供服務
  • 本地硬體如何 穩定使用
  • 應用程式如何 隨著時間的推移集成AI功能

目標受眾也很明確:

  • 桌面軟體/基於工具的應用程式開發人員
  • 企業內部制度
  • 需要長期維護的工程項目,而不是「運行演示」

2.整體架構:從「如何使用」到「如何設計」

如果您將Foundry-Local視為一個黑匣子,那麼很容易誤解它只是「另一個本地LLM工具」。
但從建築學上看,它更像是一個 AI收件箱.

2.1建築分層(概念視角)

可以理解為四層:

  1. 模型層
    • 本地模型文件
    • 只關心推理,不關心訓練
    • 模型是「資源」,而不是「實驗對象」
  2. 運行時層
    • 推理機
    • 中央處理器/圖形處理器/NPU能力檢測和調度
    • 屏蔽底層硬體差異
  3. 服務層
    • 本機API
    • 模型加載、生命周期管理
    • 並發性、過程、穩定性
  4. 應用層
    • CLI /圖形用戶界面
    • 或者您自己的桌面應用程式、工具鏈

2.2一個非常重要的設計方向

Foundry-Local的方法非常「微軟式」:

  • 工程穩定性極致性能
  • 平台能力經驗點
  • 長期集成一次性

這意味著它可能不是最「有趣」的工具,但很可能是 從長遠來看最容易維持的.

3.倉庫結構:為什麼要進行工程項目

如果您瀏覽Foundry-Local的存儲庫,您會注意到一個獨特的功能:

它的結構不像「模型工具」,而是像「系統組件」。

3.1核心模塊收件箱(邏輯級別)

從職責上來說,可以分為三部分:

①/發動機

  • 推理執行邏輯
  • 硬體能力檢測
  • 為不同設備提供統一的抽象

2模型管理

  • 模型下載
  • 緩存和切換
  • 收件箱管理(加載/卸載)

3服務/ API

  • 將統一界面對外開放
  • 應用程式不需要知道型號詳細信息
  • 把「講道理」變成「服務電話」

3.2這種結構解決了哪些工程問題?

它本質上是做三件事:

  • 將模型視為 的依賴性
  • 將推理視為 服務
  • 將人工智慧視為 系統能力

這是與「編寫腳本和運行模型」完全不同的工程理念。

5.典型工程場景

5.1真正適合它的場景

  • 桌面軟體中的嵌入式人工智慧(設計、編程、分析工具)
  • 企業內聯網知識助理
  • 隱私敏感數據處理
  • 離線提供專業工具

在這些場景中,「模型效應」往往不是首要任務。
穩定性、可控性和可維護性 最棒了

5.2不合適的情況

  • 關注最新的SOTA型號
  • 需要大規模分布式推理
  • 完全依賴雲生態系統的應用程式

Foundry-Local並沒有試圖覆蓋所有人工智慧場景,而是選擇了 工程密度最高的路段.

6.為什麼Foundry-Local是一個「趨勢項目」

從更大的角度來看,這個項目實際上走在了三個趨勢的交叉點上:

  1. 作業系統正在變成人工智慧
  2. 本地哈希率正在重新利用
  3. LLM正在從「產品」轉向「系統組件」

在這種情況下,Foundry-Local更像是:

為未來的Windows/PC應用程式提前奠定了一層人工智慧基礎。

Girhub:https://github.com/microsoft/Foundry-Local
管材:

返回頂端