研究:GPU是資料處理領域的“瑞士軍刀”,不止於AI特定應用
研究表明,自從2022年以來,有關人工智慧(AI)的討論激增了383%。然而,根據資料編排服務商Hammerspace日前發布的《下一個資料週期的狀態:如何使用GPU?》的研究報告,到2024年,在高達650億美元的全球GPU市場中,只有一小部分被用於AI特定應用。這意味著GPU在AI之外還有廣闊的應用空間。
Hammerspace創辦人兼CEO David Flynn表示:「引領下一輪創新潮流的關鍵因素在於企業如何有效啟動並利用其非結構化資料。我們的研究表明,許多企業最初為AI專案購買的GPU正在成為資料處理領域的'瑞士軍刀',以我們從未預料到的方式釋放各行各業的價值。
該報告強調了企業中GPU利用率的動態變化,揭示了許多公司正在將這些資源重新用於各種非AI應用,以實現可衡量的結果。
企業加大GPU和AI投資
該報告基於LinkedIn、Twitter、Reddit、GitHub和Discord等平台上約200位產業領導者參與的約17,000次數位對話,揭示了企業在GPU和AI投資方面的應對策略。
報告揭示,大多數企業主要關注的是思想領導力(60%)和提高生產力(59%),而專門針對實現更優AI成果的創新討論僅佔18%。
在倫理道德相關討論中,有高達51%的內容集中在政策和最佳實踐上,這反映了人們對負責任AI開發的日益關注。
儘管許多企業在AI基礎設施(包括功能強大的GPU晶片)上投入了大量資金,但尚未充分利用這些資源來處理AI工作負載。與其相反,GPU正越來越多地被應用於諸如強化大數據處理與分析項目等傳統任務。
正如Hammerspace的報告所概述的那樣,GPU的應用範圍極為廣泛,涵蓋了包括大型科技公司、科學研究和媒體娛樂等行業,充分展現了其高度的靈活性與適應性。
GPU多領域應用案例
該報告介紹了Meta平台、美國洛斯阿拉莫斯國家實驗室(LANL)和一家知名串流媒體供應商等公司的案例研究,說明了GPU的不同用途。
例如,Meta部署了24000多個NVIDIA H100 GPU來支援其Llama 2和Llama 3模型的訓練,透過優化GPU效能來提高效率和彈性。
LANL簡化了其混合超級電腦環境,該環境整合了CPU和GPU處理,以支援高效能運算(HPC)和AI研究。該基礎設施被應用於涵蓋國家安全、流行病防範和氣候變遷緩解的項目。透過將孤立的檔案系統整合到一個統一的平台中,LANL提高了各種工作負載的資源使用率以及高階資料架構的效率。
另一個例子是一家知名串流媒體公司,該公司利用GPU-CPU整合來改進其推薦演算法,並為數百萬用戶優化視訊串流品質。該報告稱,透過將GPU與CPU結合,該公司提高了其個人化內容建議的速度和準確性,從而顯著提高了串流媒體效能。
AI以外的關鍵資產
正如該報告指出的那樣,越來越多的公司不僅將GPU用於AI,還將其用於一系列現有的大數據專案。這種靈活多變的應用方式已被證明是有益的舉措,帶來了一些超出最初預期的意外收益。
儘管高盛的分析師指出,GPU的供應限制將持續影響AI專案的部署,至少持續到2025年中期,但報告預計,全球GPU市場規模到2029年將成長到2,740億美元。
同時,Tangoe進行的另一項調查發現,72%的受訪者認為以AI為主題的雲端支出正變得難以管理(難以核算ROI)。
根據該機構對500名IT和金融專業人士的調查,光是過去一年,這一類別的支出就增加了30%。對於部分仍在計算能力投資回報上持觀望態度的企業來說,這種成長顯然是不可持續的。