記憶體解決方案助力生成式AI發展,邊緣運算成關鍵驅動力

李淑蓮╱北美智權報 編輯部

0
13

隨著半導體技術持續創新,記憶體解決方案成為推動生成式AI(GenAI)發展的核心動力。各大企業在技術研發上不斷尋求彈性策略,以提升投入資本報酬率(Return On Invested Capital),並透過供應鏈合作加強Chiplet(小晶片)架構的發展。硬體設計也隨著生成式AI應用和使用者介面的變革而調整,預計2025至2027年間,市場將迎來多項技術突破。

圖片來源 : shutterstock、達志影像

DRAM解決方案在頻寬、延遲、速度、容量及功耗管理方面各有優勢,但成本與上市時程仍是關鍵挑戰。為降低創新風險,客戶需積極參與承諾採購,而製造商則須尋求降低成本的策略。例如,LPDDR、PIM(Processing-In-Memory)、Wide I/O、GDDR與HBM(High Bandwidth Memory)各具特色,適用於不同應用場景。

短期內,PIM被視為最具創新的記憶體方案,主要支援神經處理單元(NPU),但僅限少量應用。Mobile HBM雖可提升效能,但應用尚未明朗。預計2026年,Apple將在iPhone Pro Max與摺疊機型中,由PoP(Package-on-Package)架構轉向獨立式DRAM配置,提升頻寬,同時NAND表現將透過UFS 5.0技術改進。

隨著自動駕駛技術發展,高效能應用處理器(AP)與LPDDR的使用將進一步增加,預計HBM4將在2027年後導入自動駕駛系統。此外,XR裝置、無人機與遊戲領域也將擴展Wide I/O的應用,以提升低延遲處理能力。

NVIDIA提出的DIGITS技術,將透過GPU與HBM的整合提升記憶體頻寬,並在2025年中透過SOCAMM技術,System-On-Chip Advanced Memory Module(系統級晶片先進記憶體模組)增強CPU頻寬,以擴展容量並提升訊號完整性。然而,PCB與連接器成本仍是一大挑戰,短期內尚無計畫將該技術應用於一般PC市場。

三星在Semicon Korea 2024的演講中,強調生成式AI記憶體解決方案需在高頻寬、速度、容量、低延遲與功耗管理之間取得平衡。預計至2030年,HBM5的堆疊層數將達20層,並與更多邏輯裝置整合於單一小晶片(Chiplet)架構中,台積電(TSMC)在CoWoS(Chip-on-Wafer-on-Substrate)技術中的角色將更加重要。供應鏈橫向合作的重要性日益提升,將取代單一企業全面整合的垂直整合模式。

AI模型的快速疊代,促使硬體技術發展及成本下降。過去,智慧型手機的軟體環境在iOS與Android框架下變化有限,但AI技術的引入正帶來差異化發展。例如,DeepSeek正開發行動AI的LLM(大型語言模型),預期OpenAI等企業將逐步標準化AI技術。未來,隨著PIM與Low Latency Wide I/O(LLW)等創新技術的普及與成本持續下降,這些技術有望在軟體標準化後的數年內加速落地。

Counterpoint Research研究總監MS Hwang表示:面對AI時代的快速發展,記憶體技術的創新將成為驅動產業轉型的關鍵。無論是在智慧型手機、自動駕駛,還是高效能運算領域,記憶體解決方案都扮演著舉足輕重的角色。隨著供應鏈合作模式的變革,技術標準化與成本優化將推動記憶體產業邁向更高效能、低功耗的未來。


發表留言

請輸入您的評論!
請在此輸入您的姓名