#物聯網IoT #人工智慧AI #嵌入式系統 #擴增實境AR
【過猶不及=>「可解釋 AI」】
隨著 COVID-19 病毒陸續席捲全球,保持社交距離、強制佩戴口罩、居家令等一系列法規相繼在各地實施,人們的生活方式在短時間內發生了巨大改變,一方面大量的應用和需求湧入互聯網和雲端服務,另一方面,嵌入式人工智慧 (AI) 應用在許多領域落嶄露頭角。
AI 通常被視為一個「黑盒子」,我們都不知道演算法是如何運作,但這也是它特別有效的部分原因;AI 並不仰賴人類的想法來建立演算法邏輯。但是當 AI 無法正常工作時,我們就需要獲得一定程度的可解釋性,瞭解該如何妥善修正模型。基本上,認知不確定性是可以降低的,用戶可以透過提高運算複雜度,增加更多的訓練層數,從而降低模型的不確定性,但要注意避免「過度擬合」(over-fit)。
對於輸入不確定性,神經網路只能報告輸入有問題,因此應對輸出保持謹慎態度。因此,有業者提出「可解釋 AI」(explainable AI, xAI) 概念——希望神經網路能夠識別這種局限,最後由人類決定是否需要品質更好的輸入、或完全拒絕輸出。例如,透過適當培訓的 xAI 模型來處理電腦斷層 (CT) 和 X 光影像,能區分未感染肺炎 vs. 感染病例,協助臨床人員確定下一步治療方案。
簡言之,xAI 能在涉及不確定性的情況下,作出更接近人類的反應,為基於機率的決策分類增加了確定性和可行度。此外,市面上出現一款量測體溫專用的擴增實境 (AR) 眼鏡,最多可同時對 10 人進行動態測溫、一分鐘最高可檢測近千人,便搭載了 AI 人臉識別和多點均值擬合測溫技術,使精準測溫時間不超過 0.2 秒;依託先進的嵌入式 AI 視覺處理技術,其測溫識別功能可實現離線工作,無需將資料上傳雲端處理,被評為 AR 殺手級應用之一。
延伸閱讀:
《戰鬥在疫情前線的嵌入式 AI》
http://compotechasia.com/a/feature/2020/0812/45486.html
#恩智浦NXP #雲鏡Rokid #安謀Arm #研揚科技 #DarwinAI #GenSynth #COVID-Net
xai應用 在 國立臺灣大學 National Taiwan University Facebook 的精選貼文
【口罩阻礙人臉辨識 臺大AI新技術有解】
開學以來,你我外表最大的不同就是當起「蒙面客」,戴口罩的好處是力行防疫,還可趁機偷懶不用刮鬍子、化妝也只需畫眼妝就好…不過,麻煩之處就是使用手機時,人臉辨識解鎖無法運作,得重複摘下戴上口罩…
還好,這樣的窘境未來可能有解了。臺大資訊工程學系教授徐宏民( Winston Hsu ),率領其在臺大AI中心(轄下的團隊,發表「可解釋性人工智慧( Explainable AI ,XAI)模組xCos」,除了具備高辨識率的人臉辨識能力外,還可有條理的解釋AI產出結果的原因。這項技術不僅可協助業者開發AI辨識技術,更可協助開發人員探究及檢視系統的運作機制,進而理解AI決策建議背後的理由,提升人類對於AI的信任度。
徐教授解釋,例如AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步解釋判斷的依據以及指出病徵的位置,這些XAI的應用,都可強化人民對AI的信任,更可協助系統開發人員進一步檢視AI判斷是否合理,便以改善與強化AI模型,進而促進國內外AI技術與相關產業進展。
徐教授團隊自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等。2018年在全球三大電腦視覺頂尖會議之一的CVPR偽裝人臉辨識競賽( Disguised Faces in the Wild )奪下全球冠軍,為辨識率唯一超過9成的團隊。
徐教授表示,產學合作的過程中,除了貢獻研究者對未來技術的洞察力之外,研究者也時常從合作過程中去挖掘出未來的需要。他希望將其理念拓展至其他AI深度學習相關應用中,同時也正將XAI技術擴展到其他領域關鍵性的AI決策系統,像是醫療與能源方面。
團隊已將此技術以Open Source方式供產學研單位使用:https://github.com/ntubiolin/xcos
延伸閱讀
iThome「AI為何這樣辨識人臉?臺大徐宏民團隊首創可解釋AI新技術,正嘗試擴大應用到金融和醫療AI」:
https://www.ithome.com.tw/news/137541?fbclid=IwAR24ljMhAu5tn4-4Drl1Q6-gFXLl-I7gqzlgZe_1KIQdymiHqL_mxY68ZeQ
自由時報「不解人工智慧決策理由 台大團隊AI研究取得新進展」:
https://news.ltn.com.tw/news/life/breakingnews/3161898
科技部新聞資料「打破AI黑盒子-可解釋性的人臉辨識模組」:
https://www.most.gov.tw/folksonomy/detail/906337b9-1d19-4e06-ad71-322b12531971
#解決問題
#大學社會責任
#USR
#臺大資訊工程學系
#徐宏民
#終於不用再一直穿脫口罩用手機
xai應用 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
打開 AI 黑盒子,台大找到 AI 決策關鍵並開源各界使用
作者 中央廣播電台 | 發布日期 2020 年 05 月 11 日 16:02
科技部 11 日舉辦記者會,邀請台灣大學 AI 中心分享「可解釋性人工智慧」,除了具備高辨識率的人臉辨識能力,還可以有條理的解釋 AI 產出結果的原因,有效提升人類使用 AI 的信任度。
近年來 AI 臉部辨識已進步到深度學習等類神經網路,由電腦自己訂規則,憑著數以千計的條件,產出高精準度的答案,不但可辨認出真假金正恩,還可以在低解析度或刻意喬裝的情況下辨識,甚至超越人類辨識能力。
台大資工系教授徐宏民指出,過去人們不了解 AI 做決策的過程及原因,讓人駐足不前,因此,台大人工智慧技術暨全幅健康照護聯合研究中心(台大 AI 中心)在科技部支持下,打造出「可解釋性人工智慧」(Explainable AI,XAI),猶如打開「AI 黑盒子」,確認 AI 決策的合理性。「我們能解釋過去跟現在小豬哪邊不一樣,像是髮型不太一樣,下巴變得比較尖,能解釋這裡不太一樣,但鼻子、眼睛周遭還是非常像,所以專注這裡,最後判斷這是小豬。」
科技部長陳良基也指出,科技部去年 9 月公布人工智慧科研發展指引,強調 AI 的「透明性與可追溯性」及「可解釋性」,期盼讓普世大眾對 AI 感到信賴與安心。「這非常重要,AI 不應該是黑盒子,必須告訴我,現在幫我決定能不能進門、能不能得到補助,不能算完卻不能解釋,必須解釋清楚。」
徐宏民也提到,為加速技術擴散與落地應用,此 AI 模組 xCos 可與其他臉部辨識系統相互搭配,並將這項技術開源供國內外產學研單位使用,希望將相關理念拓展至其他深度學習相關應用。
資料來源:https://technews.tw/2020/05/11/xcos-an-explainable-cosine-metric-for-face-verification-task/?fbclid=IwAR3H40BjkgNplbxd66lG5afqqUqxRM_I5Kml2uTEpyt0Q2dKdd2wvRwYvSM
xai應用 在 AI . FREE Team - 在歐美零售量販店,自助結帳已經廣泛使用 ... 的美食出口停車場
♂️誰適合這堂課程? ○ 製造業相關技術從業人員○ 智慧製造產業,AI 技術需求者○ 對XAI 應用於製造業電腦視覺專案有興趣者 ... ... <看更多>
xai應用 在 Explainable AI 可解釋的機器學習| 超硬派!數據 ... - YouTube 的美食出口停車場
數據實戰技術工作坊」將著重在硬核的技術,一起談談技術發展的 應用 與經驗 ... Explainable AI ( XAI, 可解釋AI) 的出現,旨在幫助人類理解AI 如何進行 ... ... <看更多>