AI 如何為公司創造更多價值?專家:2 個缺陷,要先由人類來修補
2021/05/13
採訪‧撰文
盧廷羲
張凱崴
美國人工智慧國家安全委員會(NSCAI)今年 4 月建議,國防部每年應至少分配 3.4% 的預算投入科技領域,並提撥 80 億美元研發 AI。企業方面,微軟(Microsoft)4 月宣布,將以 197 億美元收購語音辨識開發商紐安斯通訊(Nuance Communications);後者是雲端與 AI 軟體的先驅。
從企業到國家,都愈來愈重視人工智慧,知道要想辦法運用 AI 創造更好的生活。不過,目前 AI 發展到底處於什麼階段?我們又該如何應用?
美國加州大學洛杉磯分校(UCLA)電腦科學系助理教授張凱崴形容,目前人工智慧技術已經可以幫助人類完成很多事,像是疫情來襲,電腦可以從大數據中篩選條件,自動搜尋、判讀潛在病例,幫助醫生大幅減少檢查時間,但 AI 也並非萬能,要先認知它的局限。他研究如何讓 AI 更符合人性,獲得 2021 年的史隆研究獎(Sloan Research Fellowships)。
AI 局限1. 資料寬廣度不足時,就會複製人類偏見
張凱崴認為,電腦在學習的時候,是依賴「彙整數據資料」來判斷,並沒有真正思考,如果資料來源太狹隘、不夠多元,資料寬廣度不足,電腦判斷就會出現偏差,「你跟電腦講清楚 input(輸入)、output(輸出),提供足夠的數據資料,它可以對應、學得很好,但還有很多面向 AI 做不到。」
舉例來說,亞馬遜(Amazon)2014 年推出智慧音箱(Amazon Echo),使用者口頭下指令給語音助理 Alexa 就能放音樂、查資訊。然而,有些人口音較罕見,或是用字較特殊,智慧音箱的資料庫沒有「不同口音」「不同用詞」的檔案,就可能失靈,這是當前 AI 的其中一大問題。
張凱崴進一步解釋,AI 另一項挑戰是,它無法清楚分辨「不曾出現」與「不能出現」(無法出現)之間的區別,只是從資料統計出要學的東西,無法像人類一樣進行邏輯思辨。
AI 的運作方式,第一步是輸入資料,第二步是分析,但這過程容易出現偏見。例如電腦在理解「總統」這個字,會去看四周有什麼字詞,來學習總統這個詞,由於許多總統都是男性,電腦就會「覺得」總統是男性。
這也是為什麼,如果讓 AI 學習,在它的認知裡,女性「不可能」當美國總統(因為沒有資料紀錄)。「你可以跟人類說,任何職業、性別都是平等的,但對電腦來講,這很困難,」張凱崴說明,一旦資料的寬廣度受限,電腦就容易產生偏見。
就像在自然語言處理(Natural Language Processing,讓電腦把輸入的語言變成有意義的符號)領域,張凱崴說明,AI需要知道代名詞指的是「哪個名詞」,才能運算下去。但如果資料受限,使用男性的「他」,電腦可能判斷這個代名詞是指總統、總理、執行長;但換成女性的「她」,由於數據不足,電腦就會混亂,出現系統性誤差。
他再舉一例,美國人工智慧研究組織 OpenAI 提出「生成式預先訓練」系統(GPT,Generative Pre-training),推出到 GPT3 版本,屬於書寫類 AI,電腦能夠揣測人們說完上一句話,下一句可能會講的句子,自動完成後半段。
好比有人上一句寫下「我正在和教授聊天」,系統可能推導出「我們在研究室討論學術問題」,因為電腦藉由蒐集來的語料資料中判讀出「教授」和「學術」具高度相關。但研究也顯示,GPT2(前一代版本)系統也從資料中學習到許多偏見,像是如果句子前半談論白人男性,系統傾向產生正面評價;如果句子前半是黑人女性,系統竟會產生負面句子。對企業來說,許多組織接觸 AI,想讓它們取代部分工作,首先需要留意資料的廣度、多元性,才能減少電腦犯錯的機會。
AI 局限2. 即便條件相同,也無法每次都做出正確判斷
「其實,現在的 AI 就像一台原型飛機,還缺乏穩定性。」張凱崴說,現行的 AI 就好比萊特兄弟(Wright brothers)剛發明飛機,看似可以做很多有趣的事,但「可以飛」跟「飛得很好」,有一大段落差。
紐西蘭的簽證系統曾鬧出笑話。人們上傳簽證照片,AI 掃描後,確認是不是本人,但當時系統沒有估算到某些亞洲人眼睛比較小,一名亞裔男子被判定「沒有張開眼睛」,因此照片無效。
張凱崴說,在這個例子中,凸顯出 AI 的穩定性不足,「系統沒有考慮到不同人種的差異,很死板地認為你眼睛沒張開。」所謂的缺乏穩定性,指的是 AI 沒辦法在相同條件下,每次都做出正確決策,這也是使用 AI 時,須留意的第二個挑戰。
他再舉例,許多模型可以準確分析,一則影評對電影的評價是正面或負面。然而研究顯示,有時只要將影評中一些字換成同義詞,例如把電影(movie)換成影片(film),或改寫句子,即使意思並未改變,系統卻把原本判斷為正面的影評標註成負面。這顯示AI系統還未真正了解語言的含義。
在設計這些程式時,人們必須注意到 AI 可能有局限,設定的資料範圍要更完整,考慮這些因素,就能減少偏見、落差,進而加強穩定性。
餵指令給 AI 要多元化,嘗試「換句話說」、刻意混淆
經理人雖然不一定具備 AI 方面的專業知識,但只要掌握觀念,再透過 AI 領域專才協助,也能優化系統。張凱崴指出,最直接的方法是,設計 AI 模型時,要把來源群組不同的資料分門別類測試,在測試階段讓群體多元化,並確保不同特色的使用者,用起來都沒有問題。
舉例來說,一套 A 系統擁有來自各地的使用者,如果設計者是台北人,設計系統的思維容易以台北生活為主,很可能因為當地習慣不同,導致花蓮使用者操作不順。
另一個方法,則是用不同的「語意」,去測試 AI 有沒有徹底學會一個概念。例如,有一套餐廳評鑑的 AI 系統,只要蒐集、整理使用者意見,就能判斷每個顧客對於餐廳的評比是高分或低分。那麼要如何確認這套系統的穩定性?張凱崴建議,可以利用「抽換詞面」的方法。
比如,把詞彙換成同義字,再看 AI 是否能運算出相同結果,「你可能會發現,原本評比結果是食物很美味,但如果美味換成比較困難的詞,AI 就會分不出這則評比是好是壞。」因此在訓練模型時,可以將詞彙隨機抽換成同義詞,增加 AI 的詞彙量。
第三種方式更進階:改變句型、重寫句子。張凱崴指出,同樣一句話,如果換成不同說法,電腦可能判讀錯誤,將「因為發生 A 事件,所以導致 B 事件」,改寫成「B 事件發生了,是因為 A 事件的緣故」,明明兩句話意思一樣,但 AI 很可能因為穩定性不足,搞混兩者的差別。如果要鞏固 AI 的穩定性,可以使用自動改寫的方式,增加資料的多樣性。
張凱崴表示,經過這些測試,讓 AI 接受更多元化的訓練,得到更廣的學習範圍,往後碰到同義詞、相似資訊,才能有效判讀。
張凱崴總結,AI 還在快速發展,或許可以創造更多工作機會、新的職位,但現行階段,它只是輔助角色。AI 並非魔術盒子,使用它就一定有更好結果,人們還是要保持高度耐心,先認識它的缺陷,才能在技術更迭下,發揮出最好的結果。
張凱崴
台灣大學資訊工程系碩士、美國伊利諾大學(UIUC)電腦科學博士。美國加州大學洛杉磯分校(UCLA)電腦科學系助理教授,研究領域包括人工智慧、機器學習、自然語言處理。2021 年獲得史隆研究獎(Sloan Research Fellowship),研究團隊開發的運算方法,使人類語言處理的程序更有效率、更多元,同時兼具公平性。
附圖:優化AI系統的3方法
資料來源:https://www.managertoday.com.tw/articles/view/62902?fbclid=IwAR2jI1bhg1anqct0AZZR_3LKKJqIsvG0wz2whSN8iniROZApHt-_qpD7dis
同時也有2部Youtube影片,追蹤數超過2萬的網紅曾鈺成,也在其Youtube影片中提到,上集說了fair和just兩個正面的形容詞,是公平、公正的意思。這次談談兩字的相反詞:unfair和unjust。這兩個字都是貶義的;說一個人unfair,就是指他待人處事不公平;說一件事unjust,除了指該事不公平之外,還有指它違反了公義原則的意思。 不公平解僱是unfair...
正面同義詞 在 洪櫻娟醫師。身心紓壓聊天室 Facebook 的最佳貼文
來點正面的消息。
「你以為台灣只有口罩國家隊?台灣也有建築國家隊!」設計者是九典建築師事務所建築師張清華——她的名字是台灣公共綠建築的同義詞,北投圖書館、花博新生三館與國家圖書館南部分館等,都出自她之手。
相關連結:https://www.cw.com.tw/article/5100787?utm_source=fb_cwbookclub&utm_medium=affiliate&utm_campaign=fb_cwbookclub-affiliate-daily-210514-5100787&fbclid=IwAR35jd11hjl7fV1rzmtObTdNK4rftXqYxT6Sj7BpkLNaSJYeDPTzWHWfDFw
正面同義詞 在 每日一冷 Facebook 的最讚貼文
#微冷 #字源學 學外語、背單字的時候,我喜歡查些有的沒有的背景知識。這則是熱騰騰的今天現學現賣,冷度望君多擔待。
大教堂的英文是 cathedral,椅子的英文是 chair,但你知道後者是來自前者嗎?
在希臘語這層關聯就比較明顯惹:καθέδρα (kathédrā) 的意思是寶座,καρέκλα (karékla) 的意思是一般的椅子,後者只是前者的音變。原來這是因為在羅馬帝國,有扶手的椅子是權力的象徵,原本是只有皇帝能坐的,後來在基督教成為國教後,將這個象徵讓渡與主教。
所以 cathedral 原本是個形容詞,意思是「有主教寶座的」,大教堂的全名應該是 cathedral church,但縮簡成一個字:cathedral。正式翻譯為→宗座聖殿。口語為大教堂。
所以說,冠冕堂皇的石造建築奇觀,當中放的那把椅子(座)才是本體 XD
而平常的椅子 chair 的單字,則是透過一連串的拉丁語 (cathedra) →法語 (la chaise) →英語傳播中,慢慢變音至此。
講到希臘羅馬和權力象徵,再補一個相關的(podcast 聽來的)冷知識,就是林肯。華府的林肯紀念堂那尊著名的大理石林肯座像......其實藏著相當「法西斯」的象徵。
仔細看,林肯座像的座有著一雙高到很誇張的扶手,是的那就是前述,在羅馬的概念中象徵權力的寶座。更加仔細看,那一雙扶手的正面浮雕有玄機,是一根根棒子用斜向帶子綑在一起——那是羅馬的「束棒」(fasces)。由最高執政官、總督或皇帝等最高權力方持有。
在林肯紀念堂(和許多聯邦的權力機構)出現的束棒象徵通常正面有 13 支木棒綑在一起,象徵十三州的團結。就是「合眾為一(E Pluribus Unum)」的格言——白話文是「團結就是力量」。
林肯被暗殺於 1865 年,林肯紀念堂落成於 1922 年。巧的是,就在同一年,獨裁者墨索里尼被任命為義大利總理。日後他會把羅馬束棒當作自己的「領袖 (duce)」頭銜的象徵。經過二次大戰的慘烈洗禮,墨索里尼這種人等的主張和作風,才讓束棒的象徵變糟糕,變成國家極權右翼激進的民族主義:法西斯主義(Fascism)的同義詞。
林肯:硍!被陰了。恁爸才不是法西斯啊。
Fin. 我們下次見~~ by 科宅
※ GIF 為法國亞眠大教堂(Cathédrale Notre-Dame d'Amiens)
正面同義詞 在 曾鈺成 Youtube 的精選貼文
上集說了fair和just兩個正面的形容詞,是公平、公正的意思。這次談談兩字的相反詞:unfair和unjust。這兩個字都是貶義的;說一個人unfair,就是指他待人處事不公平;說一件事unjust,除了指該事不公平之外,還有指它違反了公義原則的意思。 不公平解僱是unfair
正面同義詞 在 曾鈺成 Youtube 的最佳解答
上次說了inhumane,殘忍的、不人道的;刪去了這個字的否定前綴in-,就是humane,即仁慈的、合乎人道的、善良的,是一個正面的字。如果說我們這個社會是a caring and humane society,即是一個充滿關懷、仁愛的社會。虐待是inhumane treatment