智慧製造2019.09.24

AI 晶片不看熱鬧看門道……怎麼挑?

飛飛

硬體 物聯網 創新

 

又是IoT物聯網、又是AI 人工智慧,不只Cloud 雲端,還有 Edge 邊緣……當然,老闆照例叮囑的 「又要馬兒好還要馬兒不吃草」也不能忘 ─ 左手抓著效能、右手托著價格、頭上盤著功能、腳頂著低耗能……想要落實物聯網,滿足多方需求,首先AI晶片看仔細。

 

AIoT 概念其實內含著各司其職的物聯裝置,像是:

 

Sensor Fusion

感測從單純的溫、溼度等環境測值,轉變為再加影像、音訊、動態等全面性環境感知;同時,感測裝置的佈局也從單點式延伸至全空間策略性佈局,以求寫真性實境側寫,取代過往單一參考值。而這資訊收(蒐)集源的眾多據點,極具線性時間指標。因此AI 晶片處理 Sensor Fusion 時,瞬間資料處理的精準時機成了資料真實性的其一關鍵因素,譬如:同一空間的不同感測裝置所同步蒐集的數據,從資料讀取到AI資料處理,有可能因各自 AI 晶片內核心處理所需的毫秒時間落差,導致判讀為不同時間區間的蒐集數據,那麼就可能造成整體性實境側寫失真而無以察覺。

 

High Performance Computing

Cloud 雲端來說,其資料流的特性主要在於高量數據處理、AI training 的高量運算需求等,那麼通常雲端(如:Data Centre)相關裝置對 AI 晶片的需求就著重於顯著的 HPC 高效能運算。

 

Edge Environment

邊緣裝置則多半具低功耗屬性,其電力供給通常是像電池這樣具時效性的型態,因此在 AI晶片的規格上,耗能成了極為重要的考量。

 

以上簡單舉例說明在物聯網實務上,AI 晶片已不只是 AI Accelerator 輔助分擔 CPU的運算負荷與加速整體運算處理,更愈趨向於針對物聯所串聯起的五花八門裝置,規格分眾化的市場趨勢。

 

AI 晶片專用分眾的潮流,連帶促使晶片的設計與製程發生顛覆性變革:

 

SoC FPGA _ Intel  

System-on-Chips 顧名思義是將系統整合於單一晶片上,因此小小一顆大約硬幣大小的晶片,即具備從CPU、記憶體到I/O等堪稱為一般熟知的「電腦」完整功能。其好處是微縮體積帶來的速度提升、耗能縮減等;而相對地就在於其一體成型所伴隨的固定規格。Field-Programmable Gate Array 的特點在於Programmable可程式化,將 CPU 與 Logic Block 分隔於不同區域,使其運算處理的邏輯部分能夠依需求後續客製,增進其彈性規格。想當然爾,將AI 晶片的專用分眾趨勢vs FPGA的彈性規格相對應起來,顯然物聯各司其職、各具規格需求的五花八門裝置,看來將更適合透過 FPGA的彈性客製獲得廣泛解決,特別是FPGA 的低功耗優勢。隨著技術革新,目前結合 SoC 系統整體功能於 FPGA的Logic Block可後製屬性的 SoC FPGA 漸成市場新寵,讓使用者可以既享受系統整體功能的優點,也具備彈性後製的方便。直至目前在終端市場始終既定主流的 Intel,自先前併購當時FPGA市場主力 ALtera之後,其採用 FPGA 以至近年 SoC FPGA 型態晶片的走勢更顯浮上檯面。

 

GPU _ Nvidia

HPC 高效能運算始終是Nvidia 強調的自身市場定位;事實上,HPC 就是GPU當初立足的根基與起點。GPU 圖形處理能力,主攻平行運算與陣列數據處理;換言之,相當回應 AI 所需的維度導向數據資料流,以及大數據的高量資料庫。因此,目前 Nvidia 的GPU-based AI 晶片,橫掃所有主流雲端供應商的雲端系統,也佔據 AI Accelerator 的絕大數市場。其優勢還在於其可軟體定義資料流的便利性,相較於 FPGA的硬體邏輯語言更快更方便。然而,GPU 除了其運算處理亦需隨版本更新才能變更;也相對受其限制之外,高效能運算實際上代表著相對更耗能。此外,隨著 SoC FPGA微縮系統於單一晶片上,GPU做為 AI Accelerator 而需透過CPU對外往復於像是memory、I/O等系統功能的相對「長程路徑」,更顯相對較不易抗衡於延遲性與耗能性方面。

 

ASIC _ Google

Application-specific Integrated Circuit 特殊應用積體電路,如其所名,就是基於特殊應用所量身定做的 IC。在所有 AI晶片中,ASIC 最具封閉性規格;這也就是說,彈性規格不是此類晶片所追求的屬性,反倒是透過晶片設計與製程,鎖死其規格。當然,會採用此類晶片,表示其市場夠大、可應用的裝置夠廣泛,才可能足以分攤具強烈排他性的昂貴晶片設計、開模直至量產。Google 即為目前市場上極為少數(或可說獨特)具備上述種種條件的 AI 晶片供應。事實上,Google的TPU 晶片只供自家產品使用,近似當初 Intel 初期市場模式。從Google Search 引擎帶來的大數據、Tensorflow AI 框架的強力市場主流直到 Google Cloud & Edge所建立的Google 生態系,TPU晶片的優勢就在於能夠打造最貼切適用於自身完整生態系的專用型AI 晶片。不僅如此,其價格當然也能享受規模經濟效應,並特別能持續滿足自身客戶透過生態系(Cloud / Edge)不停回饋的前瞻性需求。我們可以說,Google 採用 ASIC的自信在於不需要後續客製的另一道程序,而能直接針對客戶需求 開發/升級/改版/系列打造 適用的AI晶片。

 

延伸討論

智慧製造

Machine Vision 於視覺檢測的應用

飛飛
機器視覺 MV目前已到了成熟應用的商業化階段。在 Smart Factory 方面,除了門禁管制、監控裝置之外,Machine Vision 還可用於檢測、Robot Vision等。現階段MV視覺應用於檢測,不只是影像相關技術已達一定成熟度,還有相關的軟體、支援系統直到 AI等週邊也具相互配合水準,市場上已可見多種選擇。
智慧製造

異質整合的AI物聯

飛飛
微縮體積是 AI 晶片持續追求的不變原則。因為微縮,電腦中資料處理所需系統功能的關鍵元件,從半個房間大小的電晶體時代,轉眼就成了不到數公分長的Microcontroller得以嵌入家電儀錶面板或是遙控器等隨身物件。而如今,異質整合將微縮體積的概念,淋漓盡致地發揮為硬幣大小的AI晶片之內。
智慧製造

AI Chips 口味眾多,混搭聯名時尚風

飛飛
隨著通訊市場進入 5G 開通初始階段,AI 市場的發展也愈發如火如荼。AI Accelerator 的競爭朝向從硬體到軟體/軟體到硬體建構出完整的 OT-CT-IT 生態系。這也就是說,如:NVIDIA、Intel 等硬體商,開始發展自身的 AI Instance;而像 Google 這樣軟體起家者,則反向跨足 AI Chip 硬體。相對的,有道是現成的最好用,因此如 NVIDIA 用上了可謂 AI 生態系競爭對手的 Tensorflow 框架;或是 Google Clouds 反之用上了 NVIDIA 的 GPU;或者像 Intel 直接採取併購策略。可以說,不僅是 AI 晶片發愈多元,AI 生態系更是混搭聯名現正夯。