在美中科技競賽持續升溫之際,由馬雲創辦、與阿里巴巴關係密切的中國金融科技企業螞蟻集團,近日傳出已成功利用國產晶片訓練人工智能模型,且成本降低近兩成,效能幾可媲美使用輝達(Nvidia)高階晶片。這不僅代表中國科技業者逐漸擺脫對美國晶片的依賴,也為國產AI技術發展注入強心針。
據外媒報道,螞蟻集團近期推出兩款自家開發的大型語言模型(LLM),分別為「百靈輕量版」Ling-Lite 與「百靈增強版」Ling-Plus。據了解,這些模型在訓練過程中所使用的硬體並非昂貴的輝達GPU,而是中國本地供應商,包括阿里巴巴與華為提供的處理器,輔以超微(AMD)晶片組合搭配。
螞蟻集團採用「混合專家模型」(MoE,Mixture of Experts)技術來優化訓練流程。這種架構透過將任務分派給不同模組中的「專家」,讓AI模型只需動用部分參數進行推理,大幅提高效率並節省資源。該方法在Google與中國AI新創如DeepSeek中亦被廣泛應用。
採本土晶片與MoE技術
消息指出,螞蟻集團在這次模型訓練中刻意降低對輝達晶片的依賴,僅在部分開發階段使用其產品。大部分訓練工作轉向採用中國製與AMD晶片的組合,整體運算表現竟接近使用輝達H800晶片的標準。值得注意的是,H800雖非輝達最先進的GPU,卻因性能優異,早已被美國政府列入對中出口禁令清單。
根據螞蟻集團對外發布的技術數據,以高階硬體訓練一萬億個AI學習單位(token)約需成本635萬元(人民幣,下同,而採用其優化方案與本地硬體後,可將支出降低至510萬元,節省幅度達20%。這對致力發展本地AI模型的企業而言,無疑是一大吸引力。
Ling-Plus模型參數量達2,900億,在業界屬於大型語言模型之一。雖然與GPT-4.5的1.8萬億參數相比仍有差距,但已遠超許多市面主流產品。此外,螞蟻還聲稱其模型在某些測評中超越Meta的語言模型表現,儘管尚未獲得第三方驗證,仍引發外界對中國AI實力的重新評估。
不靠高階GPU也能訓練LLM
傳統AI訓練仰賴強大GPU運算力,輝達執行長黃仁勳更曾公開表示,高效AI模型對硬體的需求將只增不減,未來企業若要提升獲利,關鍵仍在於更快、更強的晶片。然而,螞蟻集團則另闢蹊徑,著眼於「用更少的算力完成更多工作」,目標是在不倚賴高階GPU的情況下持續擴展模型規模。
這一理念與輝達依賴重裝硬體的策略可說背道而馳,但卻為成本受限的企業與開發者提供了另一條可行路徑。對於無法取得先進美國晶片的中國市場而言,這種運算思維轉變,或許將成為AI技術本土化的重要突破。
螞蟻集團的最新成果不僅展現其技術研發實力,也突顯中國科技業在外部制裁壓力下的快速適應力。隨著DeepSeek等本土公司紛紛推出低成本、高效率模型,中國正加快形成一條屬於自己的AI供應鏈,為日後在國際AI競爭中爭取更多主導權。 (編輯部)