2017 年,“人工智能”儼然已經成為所有媒體的頭條熱點,在媒體和資本的推動下,AI 以迅雷不及掩耳之勢向我們洶涌奔來。從政策層面,2017 年關于 AI 發(fā)生了三件大事,一是發(fā)布了人工智能發(fā)展規(guī)劃;二是人工智能首次寫入十九大報告;三是很多城市,如上海、重慶等都在進行人工智能規(guī)劃。
從數據來看,2013 年只有 100 多家組織機構研究深度學習和人工智能,而到了 2015 年,這個數字已經飆升到 3409 家,兩年時間增長 30 多倍。就連以電動汽車起家的特斯拉也宣布開始設計 AI 芯片,馬斯克請來了 AMD 公司 Zen 架構的開發(fā)者 Jim Keller,擔任自動駕駛硬件副總裁。
?
構造“芯”生態(tài)主題沙龍嘉賓合影
在 AI 熱鬧非凡的大背景下我們也需要認真思考:人工智能是否需要專門的芯片?現有的技術架構具有怎樣的優(yōu)勢?近期,北京建廣資產管理有限公司主辦了一場以“構造’芯’生態(tài)”為主題的沙龍,賽迪智庫半導體研究所副所長林雨從 AI 芯片定義、分類、生態(tài)環(huán)境、投資等方面做了分析。
人工智能如果按照架構進行劃分,有三個重要元素:數據、算法和算例,其中算例就是芯片,算例是基礎,算法是核心,數據是保障。先看人工智能的定義,從廣義上講只要能夠運行人工智能算法的芯片都叫人工智能芯片。但是深入分析,林雨表示,“只有針對人工智能算法做了特殊加速設計的芯片才可以稱作為人工智能芯片,市場上真正做到了對芯片里面的架構做了特殊加速設計的公司少之又少?!?/p>
三個維度對人工智能進行分類
林雨分別從功能、應用場景和技術架構對人工智能進行了分類:
從功能上來看,人工智能包括推理和訓練兩個環(huán)節(jié)。在訓練層面,通過大數據訓練出一個復雜的神經網絡模型。目前訓練環(huán)節(jié)主要使用英偉達的 GPU 集群完成,谷歌的 TPU2.0 也支持訓練環(huán)節(jié)和深度網絡加速。推理環(huán)節(jié)是指利用訓練好的模型,使用新數據推理出各種結論??偟脕砜矗柧毉h(huán)節(jié)對芯片的性能要求比較高,推理環(huán)節(jié)對簡單指定的重復計算和低延遲的要求很高。
從應用場景來看,人工智能芯片應用于云端和設備端,在深度學習的訓練階段需要極大的數據量和大運算量,單一處理器無法獨立完成,因此訓練環(huán)節(jié)只能在云端實現。在設備端,智能終端的數量龐大,而且需求差異較大,比如 VR 設備對于實時性要求很高,推理環(huán)節(jié)無法在云端完成,要求設備有獨立的推理計算能力,因此專用芯片的需求還是很大。
從技術架構來看有四類:一是通用性芯片,如 GPU;二是以 FPGA 為代表的半定制化芯片,如深鑒科技的 DPU;第三,ASIC 全定制化芯片,如谷歌的 TPU;第四,類腦芯片。
GPU/FPGA/ASIC/ 類腦芯片,各有怎樣的優(yōu)勢?
為了進行大數據處理,當前的方案一般采用高性能的處理器輔助 MCU 進行計算,但是隨著摩爾定律時間周期拉長,處理器上可集成的器件數量會達到極限,而數據量還在不斷增加,因此我們需要通過架構的變化來滿足數據量的增長,這就是人工智能芯片推出的背景。
目前來看,人工智能芯片有四類架構:GPU、FPGA、ASIC 和類腦芯片。
GPU:是單指令、多數據處理,采用數量眾多的計算單元和超長的流水線,如名字一樣,圖形處理器,GPU 善于處理圖像領域的運算加速。但 GPU 無法單獨工作,必須由 CPU 進行控制調用才能工作。CPU 可單獨作用,處理復雜的邏輯運算和不同的數據類型,但當需要大量的處理類型統(tǒng)一的數據時,則可調用 GPU 進行并行計算。
FPGA:和 GPU 相反,FPGA 適用于多指令,單數據流的分析,因此常用于預測階段,如云端。FPGA 是用硬件實現軟件算法,因此在實現復雜算法方面有一定的難度,缺點是價格比較高。將 FPGA 和 GPU 對比發(fā)現,一是缺少內存和控制所帶來的存儲和讀取部分,速度更快。二是因為缺少讀取的作用,所以功耗低,劣勢是運算量并不是很大。結合 CPU 和 GPU 各自的優(yōu)勢,有一種解決方案就是異構。
ASIC 芯片:是專用定制芯片,為實現特定要求而定制的芯片。除了不能擴展以外,在功耗、可靠性、體積方面都有優(yōu)勢,尤其在高性能、低功耗的移動端。谷歌的 TPU、寒武紀的 GPU,地平線的 BPU 都屬于 ASIC 芯片。谷歌的 TPU 比 CPU 和 GPU 的方案快 30-80 倍,與 CPU 和 GPU 相比,TPU 把控制縮小了,因此減少了芯片的面積,降低了功耗。
很多人認為 ASIC 是人工智能芯片的一個主要發(fā)展方向,其實在 ASIC 芯片里還有一個特殊的群體—類腦計算,林雨認為,“這才是真正的人工智能芯片未來發(fā)展的方向。類腦計算是真正模擬人腦進行設計,人腦的特點就是神經元進行傳輸數據。當我們用硬件去模擬人腦時,在硬件環(huán)節(jié)里還有許多多余的元素,而類腦芯片就擬合人腦的作用。要做類腦芯片非常難,IBM、高通、英特爾等公司的芯片策略都是用硬件來模仿人腦的神經突觸?!?/p>
四種架構將走向哪里?
將以上四種架構對比,GPU 未來的主攻方向是高級復雜算法和通用性人工智能平臺,其發(fā)展路線分兩條走:一是主攻高端算法的實現,對于指令的邏輯性控制要更復雜一些,在面向需求通用的 AI 計算方面具有優(yōu)勢;二是主攻通用性人工智能平臺,GPU 的通用性強,所以應用于大型人工智能平臺可高效完成不同的需求。FPGA 更適用于各種細分的行業(yè),人工智能會應用到各個細分領域。
ASIC 芯片是全定制芯片,長遠看適用于人工智能?,F在很多做 AI 算法的企業(yè)也是從這個點切入。因為算法復雜度越強,越需要一套專用的芯片架構與其進行對應,ASIC 基于人工智能算法進行定制,其發(fā)展前景看好。類腦芯片是人工智能最終的發(fā)展模式,但是離產業(yè)化還很遙遠。
投資投哪里?大佬擦亮眼睛看這幾點
第一,關注具有縱向產業(yè)鏈整合能力的企業(yè)。因為未來在人工智能領域側重生態(tài)整合。單獨做芯片的公司不如既掌握芯片又掌握算法公司,因此,那些算法和芯片兼具的企業(yè)更值得關注。
第二,專攻終端應用市場,人工智能芯片的應用場景里有兩個:一個是在云端,一個是在終端。云端格局應該變化不大,但是在終端方面變數未定,這是對國內企業(yè)來說是一個不錯的切入點,邊緣計算值得關注。
第三,關注專用芯片,ASIC 從功耗、技術都具有優(yōu)勢,是未來 AI 芯片發(fā)展的主要方向,尤其要關注是否有加速環(huán)節(jié)。
有了資本和媒體的熱捧,AI 已經在全球范圍內遍地開花,順勢而為的創(chuàng)業(yè)者也不在少數。目前,國內已經有 20 多家初創(chuàng)企業(yè)在做人工智能芯片,但是評估一家企業(yè)的技術能力是第二位的,第一位的考察點要看他們是否能真正能將技術變現,是否能將技術轉化為商業(yè)產品。因此,看一家 AI 芯片設計企業(yè),商業(yè)能力要大于技術能力,這才是融資點。
與非網原創(chuàng)內容,未經允許,不得轉載!