把AI導入邊緣裝置就對了!
作者 : Duncan Stewart、Jeff Loucks,Deloitte科技/媒體/電信中心
2020-06-04
邊緣AI晶片可能會嵌入越來越多的消費性裝置,例如高階智慧型手機、平板電腦、智慧揚聲器和可穿戴裝置等。它們還將在多個企業市場中得到應用,例如機器人、攝影機、感測器和其他物聯網裝置...
德勤(Deloitte)預測,2020年,邊緣AI晶片出貨量將超過7.5億顆,銷售金額將達到26億美元,而且邊緣AI晶片的成長速度將遠高於整體晶片市場,估計到到2024年邊緣AI晶片出貨量可能超過15億顆,代表其複合年成長率(CAGR)至少達20%,是整體半導體產業(長期CAGR預測為9%)的兩倍多。
這些邊緣AI晶片可能會嵌入越來越多的消費性裝置,例如高階智慧型手機、平板電腦、智慧揚聲器和可穿戴裝置等。它們還將在多個企業市場中得到應用,例如機器人、攝影機、感測器和其他物聯網裝置。消費性應用邊緣AI晶片市場將遠大於企業應用市場,但成長速度可能會較慢,預計2020年至2024年之間,其CAGR為18%;企業應用邊緣AI晶片市場的成長速度更快,同期CAGR預計為50%。
儘管如此,無論從出貨量還是銷售金額來看,今年消費性裝置應用都將佔據整體邊緣AI晶片市場的90%以上。這些邊緣AI晶片中的絕大部分將應用於高階智慧型手機,佔據目前所有使用中的消費性邊緣AI晶片70%以上。實際上不僅是2020年,在未來幾年,AI晶片的成長將主要由智慧型手機推動。我們相信在今年預期出售的15.6億支智慧型手機中,超過三分之一都可能內含邊緣AI晶片。
由於對處理器的要求非常高,AI運算向來幾乎都在資料中心、企業核心設備或電信邊緣處理器上遠端執行,而不是在終端裝置本地執行;現在,邊緣AI晶片正在改變這一切。它們的實體尺寸更小、相對便宜、功耗更小、產生的熱量也更少,因而可以整合到手持裝置以及非消費性裝置(如機器人)中。
邊緣AI晶片可讓終端裝置能夠在本地執行密集型AI計算,減少甚至消除了將大量資料發送到遠端位置的需求,因此在可用性、速度、資料安全性和隱私性方面益處良多。從隱私和安全性方面來看,在邊緣裝置處理資料顯然更安全;個人資訊不離開手機就不會被攔截或濫用。而當邊緣AI晶片安裝在手機上時,即使未連結網路,它也可以完成所有處理。
當然,並非所有AI運算都必須在本地進行。針對某些應用,例如當裝置上的邊緣AI晶片無法處理太多資料時,將資料發送至遠端AI陣列來處理是適當的、甚至是首選方案。實際上,在大多數情況下,AI將以混合模式完成:一部分在裝置端實現,一部分在雲端實現。具體情況下應該選擇什麼樣的混合方式,要看需要完成的AI處理類型。
智慧型手機邊緣AI經濟學
並非只有智慧型手機使用邊緣AI晶片;其他裝置諸如平板電腦、可穿戴裝置、智慧揚聲器等也會採用AI晶片。短期內,其他裝置對邊緣AI晶片銷售的影響力可能會比智慧型手機小得多,原因若非這類市場沒有什麼成長(如平板電腦),就是這類市場規模太小、無法產生實質性的影響;例如,2020年智慧揚聲器和可穿戴裝置市場總銷售量預計僅1.25億部。不過許多可穿戴裝置和智慧揚聲器都依賴邊緣AI晶片,因此其普及率已經很高。
目前,只有價格最昂貴的智慧型手機(處於價格區間頂部)才可能內置邊緣AI晶片。但是,帶有AI晶片的智慧型手機並不一定要價格昂貴到讓消費者望而卻步。
我們可以對智慧型手機的邊緣AI晶片比例進行合理的估算。目前三星(Samsung)、蘋果(Apple)和華為(Huawei)的手機處理器圖片均顯示出裸片及所有功能特性,因此可以識別出晶片的哪些部分用於哪些功能。例如,三星Exynos 9820晶片的照片顯示,其晶片總面積的大約5%專用於AI處理器,整個應用處理器SoC的成本估計為70.50美元,僅次於顯示器,是手機中第二昂貴的元件,約佔據裝置總物料成本的17%。假設AI部分的成本與裸片上的其他部分一樣,即與所佔裸片面積成正比,那麼Exynos的邊緣AI神經處理單元(NPU)大約佔裸片總成本的5%,相當於每個NPU約3.50美元。
相同的,在蘋果的A12仿生晶片上,專用於機器學習的部分約佔裸片總面積的7%。如果整顆處理器的成本為72美元,邊緣AI部分的成本大約5.10美元。華為麒麟970晶片的成本估計為52.50美元,其中2.1%用於NPU,則這部分成本應為1.10美元(當然,裸片面積並不是衡量晶片總成本中有多少比例屬於AI的唯一方法。據華為表示,麒麟970的NPU包含1.5億個電晶體,佔整體晶片55億個電晶體總數的2.7%;按這樣計算,NPU的成本較高,約1.42美元)。
儘管這裡所提到的成本差別很大,但可以合理假設,NPU的平均成本約為每晶片3.50美元。雖然每顆晶片的價格不高,但考量達到5億支的智慧型手機出貨量(還不包括平板電腦、智慧揚聲器和可穿戴裝置),這仍然是一個很大的市場。
製造商的平均成本為3.50美元,最低可能僅1美元,因此在智慧型手機晶片中添加專用的邊緣AI NPU是很自然的事。按照正常的利潤加價幅度,製造成本增加1美元,對終端消費者而言也僅增加2美元。這意味著即使是價格低於250美元的智慧型手機,也可以享受NPU及其帶來的好處,如更好的攝影機、離線語音助理等,而價格漲幅不到1%。
AI晶片來源:自家生產還是找外部供應商?
生產智慧型手機和其他裝置的廠商取得邊緣AI晶片的方式各不相同,這主要取決於手機機型、甚至是區域市場等因素。有些公司向高通(Qualcomm)和聯發科(MediaTek)等第三方供應商採購應用處理器/數據機晶片,這兩家公司在2018年合計佔據了智慧型手機SoC市場約60%的比例。高通和聯發科提供了一系列不同價位的SoC;儘管並非都包含邊緣AI晶片,高階型號通常都會有,例如高通的Snapdragon 845和855,以及聯發科的Helio P60。
在另一方面,蘋果則完全不使用外部供應商的應用處理器晶片,而是設計並使用自己的處理器SoC,如A11、A12和A13 仿生晶片,所有這些晶片都支援邊緣AI。其他手機製造商如三星和華為則採用混合策略,也就是會從市場上的晶片供應商採購一部分SoC,其餘則使用自家研發的晶片,例如三星的Exynos 9820和華為的麒麟970/980。
兵家必爭的企業與工業應用領域邊緣AI市場
如果在智慧型手機和其他裝置中採用邊緣AI處理器好處多多,那為何不將之導入企業應用呢?事實上邊緣AI處理器已經有一些企業應用案例了,例如某些自主無人機;配備了智慧型手機應用處理器SoC的無人機,能完全在裝置端執行即時導航和避障,無需連結網路。
但是,針對智慧型手機或平板電腦最佳化的晶片並非許多企業或工業應用的正確選擇。如前面所述,智慧型手機SoC的邊緣AI部分僅佔總面積的5%,在總成本中佔據約3.50美元,功耗比整個SoC少大約95%。所以若開發出只有邊緣AI功能(加上其他一些必要功能,例如記憶體)的晶片,它的成本會更低、功耗更少且體積更小,豈不更好?
事實上,已經有這樣的晶片了。據說,有多達50家不同的公司正在開發各種各樣的AI加速晶片。在2019年就已經有獨立的邊緣AI晶片鎖定開發工程師,單價約80美元。而如果達到成千上百萬顆的量產,裝置製造商的採購成本會大幅降低,有些甚至可低至1美元(或是更少),而有些則需要幾十美元。現在,我們以智慧型手機邊緣AI晶片作為參考標準,假設邊緣AI晶片的平均成本約為3.50美元。
除了相對便宜之外,獨立的邊緣AI處理器還具有體積小的優勢,功耗也相對較低,僅為1W到10W之間。相比之下,一個由16顆GPU和兩顆CPU組成的資料中心叢集,雖然性能非常強大,成本將高達40萬美元,而且重量達到350磅、耗電達到10萬W。
利用這類已經問世的晶片,邊緣 AI可以為企業帶來更多新的可能性,尤其是在物聯網應用方面。透過使用邊緣AI晶片,企業可以大幅提升在連網裝置端進行資料分析的能力──不僅是收集資料──並將分析結果轉化為行動,從而避免了將大量資料傳送到雲端帶來的成本、複雜性和安全性挑戰。AI晶片可以幫助解決的問題包括:
資料安全和隱私
無論企業如何謹慎小心地保護資料,只要是收集、儲存並將資料傳送到雲端,都會不可避免地使企業面臨網路安全和隱私威脅;隨著時間推移,因應此一風險變得至關重要。世界各國紛紛訂定個資保護相關法規,消費者也逐漸意識到企業正在收集他們的各種資料,而有80%的消費者表示,他們認為企業沒有盡力保護消費者隱私。諸如智慧揚聲器之類的裝置開始在醫院等場合廣泛使用,這些場合對患者隱私的管理十分嚴格。
邊緣AI晶片可在本地處理大量資料,降低個人或企業資料被攔截或濫用的可能性。例如,具有機器學習處理能力的保全攝影機可以透過分析視訊來確定其中哪些部分相關,並只將這部分視訊傳送至雲端,從而降低隱私權洩露的風險。機器學習晶片還可以識別更廣泛的語音指令,從而減少需要在雲端進行分析的音訊。準確的語音辨識功能則有助於智慧揚聲器更精準識別「喚醒詞」,以避免聽到不相關的對話。
連網困難
裝置必須連網才能在雲端處理資料,但是在某些情況下,裝置連網是不切實際的。無人機就是一個例子,其運作位置可能使得維持其連網很困難,而且連網功能本身以及將資料上傳到雲端都會縮短電池壽命。在澳洲新南威爾斯(New South Wales, Australia)以配備嵌入式機器學習功能的無人機巡邏海灘,確保泳客安全;這些無人機不必連結網路就可以識別出被海浪捲走的泳客,或者警告泳客有鯊魚和鱷魚襲擊危險。
(太)大數據
物聯網裝置會生成大量數據。舉例來說,一架Airbus A-350噴射機配備6,000多個感測器,每日飛行航程會產生的數據量達到2.5 TB。在全球範圍內,保全攝影機每天生成的數據約2,500PB。將所有這些數據資料發送到雲端儲存和分析的成本高昂且複雜,將機器學習處理器放置於感測器或攝影機等終端裝置就可以解決這個難題。例如,可以在攝影機中配備視覺處理單元(VPU),也就是一種專用於分析或預處理數位影像的低功耗處理器SoC。借助嵌入式邊緣AI晶片,裝置可以即時分析資料,只有當相關資料需要傳送到雲端進一步分析時才會需要進行傳輸,這可大幅降低儲存和頻寬成本。
功耗限制
低功耗的機器學習晶片甚至可以讓AI運算在透過小型電池供電的裝置上執行,不會消耗過多電力。例如,Arm晶片可以嵌入呼吸器來分析資料,包括吸入肺活量和進入肺部的藥物流量。在呼吸器上完成的AI分析結果將傳送至智慧型手機應用程式,協助醫事專業人員為哮喘患者提供個人化醫療照護。
除了現在已有的低功耗邊緣AI NPU外,很多公司還致力於開發「微型機器學習」方案,也就是在微控制器單元之類的元件上實現深度學習。例如Google正在開發能讓微控制器分析資料的專用版本TensorFlow Lite,將需要發送到晶片外的資料壓縮為只有幾個位元組大小。
低延遲需求
無論是透過有線網路還是無線網路,在遠端資料中心執行AI運算都意味著往返延遲的存在,最佳情況下為1到2 毫秒(ms),最差情況則達到幾十甚至幾百毫秒。使用邊緣AI晶片在裝置端執行AI,可以將延遲降低到奈秒(nanoseconds)等級──這對於需要收集、處理資料並即刻採取行動的應用場景至關重要。
例如自動駕駛車輛必須透過電腦視覺系統收集並處理大量資料以識別物體,同時收集和處理來自感測器的資料以控制車輛各種功能;然後它們必須立即根據這些資料做出決策,像是何時轉彎、煞車或加速,以實現安全行車。為此,自動駕駛車輛必須自己處理在車輛中收集的大量數據。低延遲對機器人應用也很重要;隨著機器人逐漸出現在工廠環境並開始與人類協同工作,低延遲將變得越來越重要。
邊緣AI在大量數據應用至關重要
邊緣AI晶片的普及可能會為消費者和企業帶來重大變化。對消費者而言,邊緣AI晶片可以實現多種功能,從解鎖手機到與語音助理對話,甚至在極端困難的條件下拍攝出令人驚歎的照片,而這些應用都不需要連結網際網路。
但從長遠來看,邊緣AI晶片對企業應用的影響可能更大,它們將把企業的物聯網應用提升到一個全新的境界。由AI晶片驅動的智慧裝置將有助於擴展現有市場,衝擊現有企業,同時改變製造、建築、物流、農業和能源等產業的利潤分配。
收集、詮釋並立即根據大量數據資料採取行動的能力,對於那些仰賴大數據的應用至關重要;未來學家們預測,這類應用將被廣泛佈署,包括視訊監控、虛擬實境、自動駕駛無人機和車輛等等,而邊緣AI晶片就是讓各種裝置取得更高智慧的主角。
附圖:圖1:AI運算技術能佈署在不同位置。
(圖片來源:Deloitte Insights)
圖2:邊緣AI晶片市場規模預測。
(圖片來源: Deloitte Insights)
圖3:三星Exynos 9820的裸晶照片顯示,其中約有5%的面積為AI處理器。
(圖片來源:ChipRebel;注釋:AnandTech)
圖4:蘋果的A12仿生晶片約有7%的面積屬於機器學習的部分。
(圖片來源:TechInsights / AnandTech)
資料來源:https://www.eettaiwan.com/20200604putting-ai-into-the-edge-is-a-no-brainer-heres-why/?fbclid=IwAR3hRYuquNfTq5VzcEWYfqyJotBLBSp4PzLNyMackrs6V43r9NEMhRZ3Ap8
「tensorflow沒有使用gpu」的推薦目錄:
- 關於tensorflow沒有使用gpu 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳貼文
- 關於tensorflow沒有使用gpu 在 台灣人工智慧學校 Facebook 的精選貼文
- 關於tensorflow沒有使用gpu 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
- 關於tensorflow沒有使用gpu 在 [問題] tensorflow-gpu環境問題- 看板DataScience - 批踢踢實業坊 的評價
- 關於tensorflow沒有使用gpu 在 Python Taiwan | 哈囉大家好,我想要安裝tensorflow gpu版本 的評價
- 關於tensorflow沒有使用gpu 在 tensorflow-gpu keras ML python套件軟體安裝說明 - YouTube 的評價
tensorflow沒有使用gpu 在 台灣人工智慧學校 Facebook 的精選貼文
新竹分校 #先懂再學技術新手班、#外掛加速技術專案班 開學啦~
👉不知道你有沒有發現這次的課程設計不同了呢~
新竹分校這次的課程設計依據,來自各產業的學員不同基礎去規劃,所以分成兩條支線進行。
讓各位學員都能在各自適合的訓練場,練功努力!
當然每位學員都能藉由使用 AIA 的 GPU 強大運算資源,在 AIA 學習你不用再擔心怎麼設定惱人的深度學習開發環境(遙望 window....)
來~~你所需要的就是打開瀏覽器連上我們的 HUB,馬上開始投入練習 coding,並搭配最新上線的 Tensorflow 2.0 教材,讓你四個月內成為技術人才!
🤘(拍胸脯!保證是全台最快速更新的 XD)🤘
------------------------------------------------------------------------------------------
今天的課程由新竹分校二位美女小天使工程師分享接下來四個月的戰鬥營設計。
還有邀請專案處處長 蔡源鴻博士來演說,分享說明進入AI的領域的關鍵,以及八大關鍵技術理論,三小時絕無冷場🤝
------------------------------------------------------------------------------------------
🧐再偷偷告訴你AIA有超過500顆GPU
🥳這種運算資源哪裡找
😲搭配各種頂尖校友
😍準備報名下一期!
tensorflow沒有使用gpu 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
Facebook跨界打造AI深度學習晶片
2018年9月17日Rick Merritt, EE Times矽谷採訪中心主任
Facebook證實目前正在招聘晶片工程師,成立晶片部門並展開ASIC設計。這家社交網路巨擘預計很快地將有5家晶片公司支援其Glow深度學習編譯器…
據Facebook一位高層證實,該公司目前正在招聘晶片工程師,並展開至少一款ASIC設計。在日前於美國加州舉行的Facebook @Scale 2018大會上,這家社交網路巨擘宣佈,預計將有五家晶片公司支援其Glow——一款開放來源的深度學習編譯器。
Facebook基礎架構副總裁Jason Taylor說,Facebook「確實成立了一支專門與晶片供應商合作的晶片團隊,同時,我們也在打造自家晶片。不過這當然不是我們的首要關注重點。」他表示,這款晶片「並不等同於Google TPU」深度學習加速器,但他並未提供與這款晶片有關的更多細節或時間表。
Facebook的新晶片部門工作重點之一在於與大約50家設計人工智慧(AI)加速器的公司合作。Taylor指出,「市場上將出現許多加速器晶片。但最大的問題在於他們針對的工作負載是否是當前最重要的。」
在主題演講中,Taylor將Glow描述為一種通用編譯器,讓開發人員能夠針對雲端或網路邊緣中任何新興深度學習加速器進行推論任務。它並不針對智慧型手機等客戶端系統。
「我們預期[推論加速器]市場將會出現硬體零碎化的情況。我們開發Glow的目的在於協助機器學習專家設計神經網路,而不必面對調整『每個特定晶片』所需的工作。」
「我們知道硬體零碎化即將發生,因為沒有人知道哪一種[硬體]資源的組合——例如晶片上記憶體區塊和乘法累加陣列——將會勝出,因此我們讓開發人員專注於高層級的圖形,而無需為硬體規格手動編碼。」
Taylor解釋,Glow採用由TensorFlow或Caffe2等架構產生的AI圖形,並將其渲染為硬體加速器的位元程式碼。根據Facebook的一篇部落格文章,該編譯器內含幾種工具,包括為晶片特定記憶體配置產生有效程式碼的指令排程器、線性代數最佳化器與記憶體分配器,以及用於測試硬體精確度的CPU參考建置。
益華電腦(Cadence)、Esperanto Technologies、英特爾(Intel)、Marvell和高通(Qualcomm)等公司都表示未來的晶片將支援Glow。Taylor則表示希望進一步擴展支援名單。「這是Glow作為開放來源的優點之一。」
一位資深晶片專家將Glow描述為在生產系統中部署神經網路的架構。其輸入是在TensorFlow或Caffe2等架構中創建的圖形。
幾家既有的晶片製造商已經提供了類似的軟體。例如,輝達(Nvidia)的Tensor RT自架構中提取圖形,並為其GPU輸出Cuda程式碼。
傳統上,編譯器針對特定晶片進行嚴密的最佳化。但是,Taylor說:「近來的編譯器範圍比過去的更加廣泛——Glow中的最佳化必須能辨識可以渲染到硬體加速器的大部份圖形。」
轉型AI的前兆?
在快速發展的深度學習領域,Glow可說是致力於填補軟體和硬體之間差距的最新例證。例如,Nvidia Tensor RT雖然在一年多前才首次發佈,至今已進展到第五個版本了。但有些加速器新創公司對於支持各種軟體架構及其變化所要求的工作程度也無能為力。
Facebook、微軟(Microsoft)和其他公司則都支援ONNX——一種以權重表現圖形的標準方法。去年12月,Khronos Group還發佈了用於深度學習加速器的硬體抽象層NNEF。
Glow是Pytorch 1.0的一個組成部份。Pytorch 1.0是一個開放來源計劃組合,包括合併的Caffe2和Pytorch架構。Pytorch 1.0的第一個開發者大會將於今年10月在舊金山舉行。
Facebook工程經理Kim Hazelwood在另一場活動中展示Facebook使用的十幾種不同深度學習工作負載,其中至少使用了四種不同類型的神經網路。每天,該AI應用程式(App)產生超過200兆個推論,翻譯超過50億個文本,同時也自動刪除至少100萬個假帳戶。
她說,Facebook的一些推論任務需要的運算量是其他任務的100倍。如今,Facebook在其設計的一小部份CPU和GPU伺服器上執行這些任務。
Hazelwood在接受《EE Times》訪問時說,從通用硬體轉向客製硬體,必須為那些仍在定義中的工作負載量身打造晶片。但她拒絕透露Facebook對於使用任何自定義AI加速器的想法。
Facebook neural nets在至少十幾種深度學習app中,僅Facebook本身就採用了至少5種神經網路
一位觀察家推測,Glow可說是一款理想的工具,有助於讓公司採用適合其工作負載的加速器。Facebook的晶片團隊還能協助精選晶片,或許還可以為其提出客製化晶片的建議。
此外,Facebook的一篇部落格文章描述它所開發的一款全新軟體工具,使用深度學習來除錯程式碼。SapFix可以自動產生針對特定錯誤的修復程式,然後提交給工程師進行審核並部署至生產中。
目前,Facebook已經使用SapFix,加速為使用Facebook Android App的數百萬裝置發送程式碼更新的過程。Facebook表示將發佈該工具的一個版本,但未具體說明時間表。
附圖:
Jason Taylor GlowFacebook基礎架構副總裁Jason Taylor形容Glow是一款為雲端和邊緣網路進行推論的編譯器(來源:Facebook)
Facebook Glow
資料來源:https://www.eettaiwan.com/…/20180917NT01-Facebook-Builds-Ch…
tensorflow沒有使用gpu 在 Python Taiwan | 哈囉大家好,我想要安裝tensorflow gpu版本 的美食出口停車場
... 使用CentOS 6.8,並沒有官方的安裝指引,所以我試了很多google到的方法,目前只有 ... 沒有什麼好方法可以解決嗎?謝謝~. Page Not Found. stackoverflow.com. Page Not ... ... <看更多>
tensorflow沒有使用gpu 在 tensorflow-gpu keras ML python套件軟體安裝說明 - YouTube 的美食出口停車場
Machine Learning python套件# tensorflow - gpu #keras 軟體安裝說明,安裝在windows上的anaconda環境,C++=Visual Studio C++ 2019, #cuda=11.6, ... ... <看更多>
tensorflow沒有使用gpu 在 [問題] tensorflow-gpu環境問題- 看板DataScience - 批踢踢實業坊 的美食出口停車場
作業系統: win7
問題類別: tensorflow-gpu環境設定
使用工具: python3.5(Anaconda3-2019.03),tensorflow-gpu-1.14,
CUDA 10.0,cuDNN 7.4.1
問題內容:
各位版上的大大好
我是個剛接觸這領域的新手
在建立使用顯卡來進行運算的環境上遇到問題
無法以GPU來運算
所以想來請好心的大大指點指點
感謝各位大大
我以指令來確認並沒有出現/device:GPU:0的資訊
from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())
以下是我的操作流程:
1.更新顯示卡驅動程式
2.安裝Anaconda & Tensorflow-gpu
3.安裝CUDA和cuDNN
4.設定環境變數
在Path新增
D:\NVIDIA GPU Computing Toolkit\CUDA\v10.0\bin
D:\NVIDIA GPU Computing Toolkit\CUDA\v10.0\libnvvp
D:\NVIDIA GPU Computing Toolkit\cuDNN\v7.4.1.5\bin
nvcc -V指令結果如下
我有查過tensorflow-gpu需要的CUDA和cuDNN版本需求
自己的顯卡為GV-N660 OC-2GD
雖然很弱但想先試試看
之後再考慮採購新機
顯卡資訊
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.173.213.165 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1563712955.A.841.html
... <看更多>