時報資訊
【時報記者王逸芯台北報導】AI基礎建設競賽進入白熱化階段,企業對高效能、合規與低延遲算力的需求,已由探索期邁入全速部署期。台灣大(3045)宣布推出AI算力服務,攜手具備NVIDIA Cloud Partner(NCP)優先配貨權的國際算力業者GMI Cloud,引進市場主流NVIDIA算力基礎設施,涵蓋H100、H200、GB200,以及預計年中上線的Blackwell架構GB300 NVL72。台灣大整合高效能GPU算力、專屬網路專線與電信級資安防護,推出「算力與專線打包」服務模式,企業無須自建機房,即可導入AI模型訓練與推論應用,在加速AI落地的同時兼顧資料在地化與合規需求。
台灣大企業服務事業商務長朱曉幸表示,隨著生成式AI邁向代理式AI,全球算力需求呈指數成長,產業已進入「基礎建設競賽」階段。GPU即服務(GPUaaS)模式可提供企業彈性租用資源,有助降低初期投資與營運成本。隨著企業專屬大語言模型(LLM)部署、數位孿生與高階邊緣運算需求升溫,加上高敏感產業對資料主權與低延遲的要求提高,台灣大將鎖定政府、金融、製造及醫療等領域,預期今年AIDC相關服務營收可望呈現倍數成長。
根據Fortune Business Insights預估,全球GPU即服務市場規模將由2026年的78億美元,成長至2034年的724.9億美元,年複合成長率達32.1%。隨AI應用由基礎模型訓練(Training)轉向場景化微調(Fine-tuning)與推論(Inference),台灣大提供高效能裸機(Bare Metal)租賃服務;對於需要整合解決方案的企業,亦提供顧問服務,協助導入國際原廠叢集管理與推論引擎,以優化整體成本與部署效率。
看準企業在導入高效能算力時,面臨資料出境的合規風險與網路延遲問題,台灣大結合電信核心優勢,推出「算力與專線打包」服務,透過專用私有連線直連台灣本地算力機房,確保運算資料留存於境內機櫃,符合金融、政府與醫療等產業對資安與合規的要求,同時降低延遲、提升推論效率。
此外,透過企業專屬連線,AI資料可經由台灣大低延遲、高頻寬的光纖骨幹直達算力池,降低經由公用網路傳輸的資安風險。結合在地7x24小時技術團隊支援,提供涵蓋網路優化、防火牆部署與架構諮詢的一站式服務,強化企業導入AI的整體效能與安全性。