隨著專有人工智慧(AI)模型的成本面考量、雲端基礎設施的普及化,以及開源技術(open source technology)社群逐漸成熟和活躍,使開源AI模型蓬勃發展,如由Meta開發的Llama、由Google推出的Gemma及由Microsoft開發的Phi-2等代表性基礎模型,可兼顧運算效能、輕量化與企業部署彈性,且提供使用者/開發者客製化地調整、部署並整合至特定應用情境中。
隨著生成式AI(Gen AI)正加速進入商業應用階段,各界愈加重視模型的開發來源透明度、應用過程的掌控程度以及推論結果的可驗證性,亦使開源技術逐漸成為企業導入AI的優先考量。

企業已逐漸擴大採用開源技術,當前應用集中於模型與開發工具面向
針對開源技術在企業的部署程度,麥肯錫顧問公司(McKinsey & Company,下稱麥肯錫)訪問700多位來自41個國家的技術開發者,並與Mozilla基金會以及帕特里克·J·麥戈文基金會(Patrick J. McGovern Foundation)在2025年4月21日聯合出具「人工智慧時代的開源技術報告」(Open source technology in the age of AI),該報告指出開源技術已普遍在企業端應用,以技術堆疊(tech stack)區分,開源技術多用於模型(models)、開發工具(tools)及資料(data),相對而言在託管/推論運算基礎設施(hosting / inference compute)以及模型修改(modifications)則使用度較低,麥肯錫推測原因可能是,如vLLM等開源AI推論運算模組推出時間尚短,或是使用者傾向以企業內部工具及專有資料進行開發。
技術堆疊(Tech stack) | 功能說明 | 代表性開源專案 | 企業定期使用比例 |
模型(Models) | 包含模型權重(如預訓練、檢查點、調適版本)與訓練所需之程式碼 | Mistral、Gemma、Llama、GPT-J、Stable Diffusion、Aya(Cohere) | 63% |
開發工具(Tools) | 支援AI開發與部署的工具,包括模型編排、資安防護、可觀測性與效能評估等 | PyTorch、Tensorflow、LangChain、Llama Guard | 59% |
資料(Data) | 用於模型預訓練、評估、微調與偏好學習的開源資料集 | Common Voice、The Pile、Dolma | 56% |
使用者體驗/應用(User Experience/Applications) | 直接提供給終端使用者的應用服務與體驗 | HuggingChat | 49% |
API 與指令處理(APIs & Prompt Handling) | 提供外部存取與指令管理的開源介面,強化模型在特定場景下的實用性 | Hugging Face Serverless Inference API | 49% |
託管/推論運算基礎設施(Hosting / Inference Compute) | 提供模型託管與推論執行之伺服器或雲端運算設施 | llamafile、NomicAI、Ollama、llama.cpp | 32% |
模型修改(Modifications) | 針對基礎模型進行微調或整合模組,以滿足特定應用需求 | PEFT、LoRa | 25% |
表1. 七項技術堆疊分類與說明;資料來源:麥肯錫;整理製表:北美智權報/Sheryl Lu
開源技術模型可達成高效部署與技術自主,揭示企業導入的三項關鍵優勢
隨著AI技術持續普及,企業導入AI時必須考量資源分配、性能、使用者體驗及技術靈活性等因素,而開源模型正因具備上述優勢,逐漸成為企業發展AI策略的重要選項之一。以下詳述各項效益:
- 成本效益:在實務應用上,開源技術具備相對低廉的執行與維護成本,可有效降低中小企業與新創導入AI模型的門檻。企業無需支付高額的專有API授權費用,即可利用現有模型進行修改與微調,快速應用於特定場景,進而節省自建模型與完整訓練流程所需的龐大資源與時間成本。
- 高性能和易用性:根據麥肯錫調查,曾同時使用開源與專有模型的使用者多數對開源工具表示高度滿意,主因在於其具備顯著的成本優勢,同時仍能提供接近商用模型的效能表現,且開發、部署與整合流程相對易於上手,此顯示越來越多企業已成功導入開源模型,並從中獲得效益。
- 靈活性:採用開源模型可降低對單一AI模型供應商的依賴,且可降低技術轉移成本,使企業能更靈活且低成本地調整或切換AI模型或相關AI工具,提升技術部署的靈活性。此外,企業可更快速地回應新穎的AI技術變動或新萌發的市場需求,取得競爭先機,而若要進行技術升級或切換時,亦能大幅縮短系統停機或調整的時間成本。
從資料可靠度、隱私到法規壓力,開源技術導入背後的風險與挑戰
雖然開源模型具成本、效能及使用彈性等優勢,然而開發者仍需留意以下風險:
- 品質與資料信任度:模型的訓練與微調過程高度依賴資料品質,故若資料來源不明或遭植入惡意樣本,可能導致模型輸出異常,故企業可建立標準化測試框架,定期執行模型準確性與偏差檢測,並導入資料集來源文件化制度,提升訓練資料的可追溯性與可信度,以降低模型異常輸出與資安風險。
- 資料隱私:開源AI模型的透明性雖是一大優勢,但也帶來潛在的資料隱私風險。許多開源框架在訓練過程中仰賴大量資料輸入,若資料來源未經嚴格控管,企業機密資訊可能在模型中被使用及散播,故企業導入或訓練開源模型時,必須重視使用審查機制,且可採用模型測試及觸發檢測等鞏固資料隱私性。
- 合規:隨著美國與歐盟等主要市場逐步推行更嚴格的AI法規及治理框架,採用開源模型的企業可能面臨法規遵循上的挑戰。由於新法規通常要求模型透明度、可解釋性與風險管控能力,企業若無足夠資源處理複雜的法規需求,發展可能因此受到限制,更甚者可能影響其市場競爭力與技術部署速度。
開源與專有模型的混合部署模式漸成主流,打造具韌性的AI策略架構
開源技術在當前AI時代下扮演的角色已逐漸受到開發者社群及企業的重視,根據Stanford HAI研究院發布的「2024年人工智慧指數報告」(Stanford HAI Releases 2024 Artificial Intelligence Index Report),全球最大的開源技術社群Github上的AI專案,2024年較2023年增長40.3%,而因開源模型在成本、效能與彈性上的優勢,雖然伴隨資安、法規與智慧財產等風險,但透過設立相關管理機制,風險及挑戰仍可被企業有效控管。
面對多樣的應用場景與合規需求,企業逐漸轉往採用開源與專有模型的「混合策略」,將此二種模型同時運用在技術堆疊上,舉例來說,在內部流程、自主資料處理與客製化需求場景中優先部署開源模型,在需要高穩定性、可即時大規模使用的情境下則採用專有模型,這種混合策略可有效降低單一技術及資源使用的依賴,同時強化自主掌控力與落地應用效率,根據麥肯錫的調查,多數受訪使用者有意採用此類混合模型。對企業而言,將開源模型納入企業整體AI策略,不僅是研發技術架構上的關鍵佈局,更是強化創新動能與建立差異化競爭優勢的重要基石。
延伸閱讀:
資料來源:
- Open source technology in the age of AI. Published on April 21, 2025, McKinsey & Company, Partrck J McGovern Foundation & Mizilla Foundation.
- Stanford HAI Releases 2024 Artificial Intelligence Index Report. April 15, 2024, Library Journal.
責任編輯:盧頎
【本文僅反映專家作者意見,不代表本報立場。】
|