當前位置:首頁  >  技術文章(zhāng)  >  德勤報告 | 2018 AI趨勢:AI芯片更豐富,用(yòng)機器學習(xí)的(de)企業翻倍

德勤報告 | 2018 AI趨勢:AI芯片更豐富,用(yòng)機器學習(xí)的(de)企業翻倍

更新時(shí)間:2017-12-15  |  點擊率:1982

德勤報告 | 2018 AI趨勢:AI芯片更豐富,用(yòng)機器學習(xí)的(de)企業翻倍

2018 AI趨勢:AI芯片更豐富,用(yòng)機器學習(xí)的(de)企業翻倍

 

這(zhè)是一個(gè)急速變化(huà)但又有很強發展銜接性的(de)時(shí)代。

德勤在報告Technology, Media and ecommunications Predictions(科技、傳媒和(hé)通(tōng)訊的(de)預測)開頭這(zhè)樣說。

 

這(zhè)份報告中,德勤預測了(le)增強現實(AR)、智能手機、AI芯片、機器學習(xí)、互聯網、數字傳媒等領域在2018年的(de)大(dà)趨勢。總體來(lái)講,科技、傳媒和(hé)通(tōng)訊領域内将呈現指數級進步,生活中的(de)方方面面也(yě)将發生不易察覺的(de)變化(huà)。

 

這(zhè)份報告長(cháng)達80頁,我們将其中與人(rén)工智能相關的(de)兩部分(fēn)編譯整理(lǐ)如下(xià)。在2017年的(de)尾巴,我們提前去2018年預覽一下(xià)。

  AI芯片

 

強大(dà)的(de)運算(suàn)力對(duì)訓練和(hé)推理(lǐ)神經網絡來(lái)說*。

 

2009年,*塊GPU問世,這(zhè)種專門爲密集型計算(suàn)、高(gāo)度并行計算(suàn)設計的(de)芯片,比CPU更能滿足機器學習(xí)任務的(de)要求。自此,越來(lái)越多(duō)的(de)類型開始豐富“AI芯片”這(zhè)個(gè)新名詞。

德勤預測,2018年,GPU和(hé)CPU仍是機器學習(xí)領域的(de)主流芯片。

 

GPU的(de)市場(chǎng)需求量大(dà)概在50萬塊左右,在機器學習(xí)任務中對(duì)FPGA的(de)需求超過20萬塊,而ASIC芯片的(de)需求量在10萬塊左右。

 GPU、FPGA和(hé)ASIC芯片需求與2016年對(duì)比圖

在年底,超過25%的(de)數據中心中用(yòng)來(lái)加速機器學習(xí)的(de)芯片将爲FPGA和(hé)ASIC芯片。

 FPGA和(hé)ASIC芯片的(de)*超過25%

那麽,每種類型的(de)芯片到底向什(shén)麽方向發展,德勤給出了(le)詳細的(de)預測:

機器學習(xí)優化(huà)的(de)GPU:在2018年,GPU制造者将推出專門優化(huà)機器學習(xí)任務的(de)特别版GPU。其實現在已經能看到這(zhè)樣的(de)案例,英偉達稱自己的(de)Volta架構将使深度學習(xí)訓練加速12倍,在深度學習(xí)推理(lǐ)任務上比Pascal架構還(hái)要快(kuài)6倍。

 

機器學習(xí)優化(huà)的(de)CPU:在GPU市場(chǎng)蒸蒸日上的(de)同時(shí),我們也(yě)可(kě)以看到CPU公司推出機器學習(xí)的(de)CPU芯片。比如英特爾Knights Mill芯片,比非機器學習(xí)優化(huà)芯片的(de)性能提升了(le)4倍。

 

機器學習(xí)優化(huà)的(de)FPGA:在2016年,FPGA芯片的(de)銷售額已經超過40億美(měi)元。在2017年年初報告《Can FPGAs Beat GPUs in Accelerating Next-Generation Deep Neural Networks?》中,研究人(rén)員(yuán)表示在某些情況下(xià),FPGA的(de)速度和(hé)運算(suàn)力可(kě)能比GPU還(hái)要強。

 

目前,微軟、亞馬遜AWS和(hé)百度也(yě)稱将FPGA用(yòng)于機器學習(xí)的(de)相關任務中。總體來(lái)說,2018年機器學習(xí)任務對(duì)FPGA的(de)需求超過了(le)20萬。

 

機器學習(xí)優化(huà)的(de)ASIC芯片:ASIC是隻執行單一任務的(de)芯片,目前ASIC芯片的(de)制造廠商很多(duō)。在2017年,整個(gè)産業的(de)總收益大(dà)約在150億美(měi)元左右。

 

綜合各芯片廠商放出的(de)消息,英特爾的(de)收購(gòu)的(de)Nervana,能在2018年生産出自己的(de)芯片。此外,日本富士通(tōng)也(yě)計劃在2018年推出一款名爲深度學習(xí)單元(DLU)的(de)芯片。

 

TPU:TPU是谷歌(gē)爲适應機器學習(xí)任務推出的(de)ASIC芯片,适用(yòng)于處理(lǐ)在開源的(de)TensorFlow中的(de)任務。在谷歌(gē)數據中心的(de)推理(lǐ)任務中,TPU已經顯示出良好的(de)性能,和(hé)CPU相比,性能可(kě)以提升10到50倍。據谷歌(gē)預測的(de)數據顯示,2018年對(duì)TPU的(de)需求大(dà)約在10萬塊左右。

 

低能耗機器學習(xí)加速芯片:德勤預測,在2018年,手機、平闆和(hé)其他(tā)移動設備對(duì)機器學習(xí)芯片的(de)需求量在5億左右。移動端芯片的(de)zui大(dà)特點就是低能耗,GPU芯片的(de)功率大(dà)緻在250瓦左右,相比之下(xià)TPU芯片需要的(de)功率僅爲75瓦。對(duì)傳感器網絡來(lái)說,所需功率需要低于10毫瓦。

 

德勤預測,可(kě)能再過兩三年,低功率的(de)機器學習(xí)芯片才能有突破性進展。

 

光(guāng)流芯片:除了(le)上面幾種,還(hái)有一種特殊的(de)芯片類型,IBM的(de)True North芯片就是一種光(guāng)流芯片,它能加速機器學習(xí)任務,并且非常。不過德勤表示,現在還(hái)很難預測這(zhè)種光(guāng)流芯片在2018年的(de)體量,但整體來(lái)說可(kě)能低于10萬塊,甚至低于1萬塊。

 

  機器學習(xí)

 

德勤預測,在2018年,大(dà)中型企業将更加看重機器學習(xí)在行業中的(de)應用(yòng)。和(hé)2017年相比,用(yòng)機器學習(xí)部署和(hé)實現的(de)項目将翻倍,并且2020年将再次翻倍。

 翻倍再翻倍

 

在報告中,德勤重點提出了(le)讓機器學習(xí)更廣泛應用(yòng)企業中的(de)5個(gè)重要推動力,分(fēn)别爲數據科學的(de)自動化(huà)、訓練數據需求的(de)減少、訓練速度的(de)加快(kuài)、解釋結果和(hé)本地部署等。

 

1. 數據科學自動化(huà):像數據開發和(hé)特征工程這(zhè)種耗時(shí)的(de)機器學習(xí)任務,可(kě)能會占用(yòng)數據科學家80%的(de)時(shí)間。好消息是,這(zhè)種繁瑣的(de)工作正在逐步被自動化(huà)取代。從耗時(shí)的(de)工作解放出來(lái)後,數據科學家執行機器學習(xí)試驗的(de)時(shí)間從幾個(gè)月(yuè)縮短到了(le)幾天。自動化(huà)在一定程度上緩解了(le)數據科學家的(de)短缺,爲企業賦予和(hé)更多(duō)活力。

 

2. 減少訓練數據的(de)需求:訓練一個(gè)機器學習(xí)模型可(kě)能需要數以百萬計的(de)數據元素,爲訓練數據獲取标記數據也(yě)是一件耗時(shí)且成本高(gāo)的(de)事情。目前,已經湧現出緻力于減少機器學習(xí)需要的(de)訓練數據的(de)技術,包括數據合成、算(suàn)法生成的(de)模拟真實數據特征等。

 

3. 加速訓練:正如上面所說,像GPU、FPGA等機器學習(xí)專有硬件的(de)出現可(kě)以縮短機器學習(xí)模型的(de)訓練時(shí)間,加速研究進展。

 

4. 解釋結果:雖然機器學習(xí)的(de)進展日新月(yuè)異,但機器學習(xí)模型通(tōng)常存在關鍵缺陷,比如黑(hēi)箱,意味著(zhe)我們無法解釋其中的(de)原理(lǐ)。這(zhè)些不清楚讓模型無法适應更多(duō)的(de)應用(yòng)。如果黑(hēi)箱消失、結果都可(kě)解釋,是機器學習(xí)應用(yòng)的(de)一大(dà)進步。

 

5. 本地部署:機器學習(xí)将随著(zhe)部署能力一同成長(cháng)。德勤去年曾經預測,機器學習(xí)正在走進移動設備和(hé)智能傳感器,帶來(lái)智能家庭、智慧城(chéng)市、無人(rén)駕駛、可(kě)穿戴技術和(hé)物(wù)聯網技術。

 

像谷歌(gē)、微軟、Facebook等科技*正在嘗試将機器學習(xí)模型壓縮到便攜設備上,比如谷歌(gē)的(de)TensorFlow Lite、Facebook的(de)Caffe2Go和(hé)蘋果的(de)Core ML。