人工智能芯片行業技術發展分析
隨著大數據的發展,計算能力的提升,人工智能近兩年迎來了新一輪的爆發。而人工智能的實現依賴三個要素:算法是核心,硬件和數據是基礎,芯片就是硬件的最重要組成部分。它其實包括兩個計算過程:1、訓練(Train);2、應用(Inference)。
為什么需要人工智能芯片?神經網絡算法應用的不斷發展,使得傳統的 CPU 已經無法負擔幾何級增長的計算量。深度學習作為機器學習的分支,是當前人工智能研究的主流方式。簡單說就是用數學方法模擬人腦神經網絡,用大量數據訓練機器來模擬人腦學習過程,其本質是把傳統算法問題轉化為數據和計算問題。所以對底層基礎芯片的要求也發生了根本性改變:人工智能芯片的設計目的不是為了執行指令,而是為了大量數據訓練和應用的計算。
目前適合深度學習的人工智能芯片主要有GPU、FPGA、ASIC三種技術路線。三類芯片代表分別有英偉達(NVIDIA)的Tesla系列GPU、賽靈思(Xilinx)的FPGA和Google的TPU。GPU 最先被引入深度學習,技術最為成熟;FPGA具有硬件可編程特點,性能出眾但壁壘高。ASCI 由于可定制、低成本是未來終端應用的趨勢。
1、DPU
GPU使用SIMD(單指令多數據流)來讓多個執行單元以同樣的步伐來處理不同的數據,原本用于處理圖像數據,但其離散化和分布式的特征,以及用矩陣運算替代布爾運算適合處理深度學習所需要的非線性離散數據。作為加速器的使用,可以實現深度學習算法。
GPU由并行計算單元和控制單元以及存儲單元構成GPU擁有大量的核(多達幾千個核)和大量的高速內存,擅長做類似圖像處理的并行計算,以矩陣的分布式形式來實現計算。同CPU不同的是,GPU的計算單元明顯增多,特別適合大規模并行計算。
2、FPGA
FPGA是用于解決專用集成電路的一種方案。專用集成電路是為特定用戶或特定電子系統制作的集成電路。人工智能算法所需要的復雜并行電路的設計思路適合用FPGA實現。FPGA計算芯片布滿“邏輯單元陣列”,內部包括可配置邏輯模塊,輸入輸出模塊和內部連線三個部分,相互之間既可實現組合邏輯功能又可實現時序邏輯功能的獨立基本邏輯單元。
FPGA相對于CPU與GPU有明顯的能耗優勢,主要有兩個原因。首先,在FPGA中沒有取指令與指令譯碼操作,在Intel的CPU里面,由于使用的是CISC架構,僅僅譯碼就占整個芯片能耗的50%;在GPU里面,取指令與譯碼也消耗了10%~20%的能耗。其次,FPGA的主頻比CPU與GPU低很多,通常CPU與GPU都在1GHz到3GHz之間,而FPGA的主頻一般在500MHz以下。如此大的頻率差使得FPGA消耗的能耗遠低于CPU與GPU。
3、ASIC
ASIC(專用定制芯片)是為實現特定要求而定制的芯片,具有功耗低、可靠性高、性能高、體積小等優點,但不可編程,可擴展性不及FPGA,尤其適合高性能/低功耗的移動端。
目前,VPU和TPU都是基于ASIC架構的設計。針對圖像和語音這兩方面的人工智能定制芯片,目前主要有專用于圖像處理的VPU,以及針對語音識別的FAGA和TPU芯片。
人工智能芯片發展作用及意義
就目前人工智能主要發展方向來看,可投資的垂直細分領域主要包括,機器人芯片研發、智能視覺、自然語言理解和開放知識圖譜、人工智能教育、圍棋AI、機器視覺、機器人系統方案、體感人機交互、智能投顧、智能視覺等。而所有細分領域中,核心專用芯片是人工智能時代的戰略制高點。
圖形處理器(GPU)和現場可編程門陣列(FPGA)是目前軟件企業采取的主流方案。例如,百度機器學習硬件系統就是用FPGA搭建了一款AI專用芯片,并已大規模應用于語音識別、廣告點擊率預估模型等。專家表示,作為人工智能產業的最上游,智能芯片目前應用尚處初級階段,遠未達到期待,需進一步加大研發力度。
但其實除了關注芯片外,人工智能與各個領域的結合都蘊藏著巨大的機會,各行業都應搭乘人工智能快車謀求更好發展。而人工智能 傳統產業碰撞出的化學反應可能呈現兩種情況,一是人工智能將取代很多簡單的腦力勞動,二是人工智能與各行各業深度融合,對傳統產業實現重構,讓移動互聯網實現從“提升效率”向“重構產業”的質變。
圖表:2019-2022年人工智能芯片市場規模
欲了解更多行業的未來發展前景,可以點擊查看中研普華產業院研究報告《2024-2030年中國人工智能行業發展前景及投資戰略分析報告》。