在 AI 的領域中,會需要常常會學習很多不同種類的模型演算法,像是線性迴歸、決策樹、分群演算法、SVM、神經網路...
之所以會需要學習這些演算法,是因為每個演算法都有相對應的「適用條件」:當你的資料呈現線性時,用「線性迴歸」來解會最適合;當你的資料是分類問題時,可能選擇「羅吉氏迴歸、決策樹、SVM」來解較恰當;當你需要解釋模型為什麼會這樣預測時,用「決策樹、SHAP、LIME」的演算法能夠符合你的需求;當你遇到非結構化的資料時(如圖片、影音、文章),此時可能就會考慮用神經網路的變型(CNN, RNN, LSTM...)來解。
你會發現,世界上沒有一個完美的演算法/理論,有的只是在某些對應的「環境條件」下,能夠找到較適合的解法。
以更嚴謹的態度來說,每個理論往往都建立在某些「假設條件」之下。
但這時候問題就產生了:「現實中往往很難找到 100% 符合假設的情境,這時候該怎麼辦?」
若以 AI 建模的角度來說,一般的作法會是先看看能不能調整資料(資料處理),讓資料本身具有符合某些假設的特性,這樣套用該演算法時便會更具信心。
而另一種作法也很常用,就是「容許誤差」--
雖然現在現實狀況不滿足某些假設,但只要你能判斷,這件事所造成的影響誤差並不大,那便可以繼續套用該演算法,來解決現實中的問題。
-
上述概念,同樣可以套用到「理財」上。
在理財投資這條道路上,大家往往會去學習很多「理論」--價值主動投資、指數型被動投資、技術分析策略、當沖投資策略、槓鈴策略、子彈型策略、4%公式、選擇權投資理論...
不過大家是否曾經思考過,這些策略分別是基於在哪些「假設條件 (環境條件)」上呢?
有的人會說,自己依照 A 理論來進行投資實踐,但為什麼最後報酬率不如預期,甚至賠錢?更慘的是,他可能是經過20-30年後,才意識到這個問題。
答案很簡單,那是因為他沒意識到自己所使用的 A 理論,其實具備某些「假設條件」,但在現實中的市場可能並不符合這些條件,因此未考慮實際發展的狀況來修正。
很多理論在實踐上往往會無效化,就是因為實踐者並沒有意識到,該理論的限制及條件為何。
如果套在 AI,這就叫「Underfitting」;
如果套在教育,這就叫「學用落差」;
如果套在歷史,這就叫「歷史的做法框架,有時並不適合現在」。
-
這件事非常重要,建議大家無論在投資、工作、甚至人生判斷上,都要具備這樣的思維。
最近「巴菲特出清航空股」的事情,其實也是在傳達這樣的理念--
「你是否能依據現實發展的狀況,來修正調整投資策略?」
概念非常簡單、用說得也很輕易,但在思考跟實踐上,卻不是人人都能辦到。
「你目前所採取的理財策略,是否需要滿足某些假設條件呢?」
lstm 種類 在 科技產業資訊室 Facebook 的最佳解答
NVIDIA黃仁勳在GTC CHINA 2019說了些甚麼?
輝達 (Nvidia) 一年一度GTC CHINA論壇,執行長黃仁勳的主題演講更是精彩,除發表Nvidia新產品外,還可從演講中分享他對AI 領域的未來發展提出自己獨到見解與預測。...
GPU替換CPU,成本僅1/10,性能提升百倍
輝達已推出AI平台可應用於訓練、雲端、終端、自動駕駛。輝達Telsa v100 GPU,利用這些TB級的數據集去創建一個模型、在GPU上訓練這些數據,然後把它放到GPU的記憶體當中去訓練TB級別的數據,GPU訓練成本只有CPU的十分之一,並且支援更大規模的模型訓練。黃仁勳也表示GPU不是要替代CPU,而是AI負載一個更好的選擇。
推出TensorRT 7、軟體優化是實現會話式AI的關鍵
今年GTC China 2019上宣布推出TensorRT 7,它支持各種類型的RNN、Transformer和CNN。TensorRT 7能夠融合水平和垂直方向的運算,可以為開發者設計的大量RNN配置自動生成代碼,逐步融合LSTM單元,甚至可跨多個時間融合。相比TensorRT5只支持30種變換,TensorRT 7能支持1000多種不同的計算變換和優化。...
http://iknow.stpi.narl.org.tw/Post/Read.aspx?PostID=16255
lstm 種類 在 國立臺北大學National Taipei University Facebook 的最佳解答
#AI進行假新聞辨別不是夢:
研究指出只要建立假新聞大數據庫,將有機會以AI人工智慧的方式分辨假新聞
#假新聞無所不在,不但是政治新聞有假,醫藥、食品、健康、財經等類別的新聞,也都有假新聞。假新聞到處氾濫,實在令人困擾,如何利用AI人工智慧,發展智慧判別,變成為學術界努力的方向。
由台北大學汪志堅教授、淡江大學Min-Yuh Day 戴敏育
副教授、台北大學研究生胡林辳 (Lin Lung Hu)
合組的研究團隊,針對假新聞進行深度學習,發展人工智慧判斷的機制。該研究中,利用加拿大所收集的2萬3千多筆英文假新聞與2萬1千多筆真新聞,進行深度學習訓練,以各種類神經深度學習人工智慧方法(包括長短期記憶法LSTM、雙向長短期記憶法BLSTM、門閘遞迴神經網路GRU),結合不同的激活函數、損失函數、優化器、退出率Dropout,進行深度學習人工智慧的模式調校。研究中訓練獲得的人工智慧過濾模式,可以成功判別90%以上的假新聞,表示確實可以找到特徵,可以分辨假新聞。
不過,要利用人工智慧進行假新聞判別,最大的挑戰是大數據資料庫。當研究團隊使用2萬1千多筆的加拿大所收集的假新聞進行訓練時,資料數量足夠,因此可以判別90%甚至於95%以上的假新聞。
但台灣目前所收集的假新聞數量仍然不足,研究團隊以4886筆台灣的假新聞進行類神經深度學習訓練所獲得的人工智慧模式,只能成功判別三成到四成左右的假新聞。此一結果顯示若要進行假新聞人工智慧模式發展,必須有充足的假新聞資料庫作為後盾。
目前台灣有許多單位,致力於標註假新聞,知名的單位包括TFC 台灣事實查核中心、g0v的「真的假的」專案。這些單位的假新聞標註數量,仍不夠多,若能多投入資源,增加真假新聞的判讀,建立完整的真新聞、假新聞資料庫,對於未來發展假新聞的人工智慧標註,將會很有助益。
研究團隊還發現,在學術研究中,經常以假新聞、真新聞各半的比率,進行研究。但這樣的研究情境設計,與真實狀況不符,導致於調校出來的人工智慧模式過度樂觀。當假新聞的比率降低到5%,以較接近現實生活中的情況時,人工智慧模式的正確率就大幅降低了。也就是說,目前學術研究中的假新聞比率,過度高估,使得研究成果被過度樂觀看待。若要真正用於假新聞偵測,考慮重新檢視,才能將學術研究成果運用於實務界。
本次研究主要是由由台北大學汪志堅教授、淡江大學戴敏育副教授、台北大學研究生胡林辳所共同完成,本研究使用的2萬1千多筆加拿大假新聞報導,是由維多利亞大學(University of Victoria)的資訊安全與物件科技研究室(Information Security and Object Technology Research Lab)所收集。本研究使用到的近5千筆台灣假新聞報導,是由g0v的「真的假的」專案所收集。研究中,將假新聞比率分別定為50%、25%、5%,進行深度學習人工智慧類神經訓練,並計算各種不同模式下成功判別假新聞的可能性。
國立臺北大學National Taipei University汪志堅教授與
世新大學 Shih Hsin University陳才教授合著的新書:「假新聞:來源、樣態與因應策略」(前程管理教育中心出版),將於2019年7月30日上午9:30舉行新書發表會與研討會,會中除了發表新書以外,也將發表此一研究成果,說明未來利用人工智慧進行假新聞判別的展望。關於該研討會相關事項,可與汪志堅教授(國立臺北大學資訊管理研究所)聯絡,或直接聯繫承辦專員涂小姐,Email: tmi@tmi.org.tw 電話02-2658-9282 ext.258。活動網址為https://www.accupass.com/go/fakenews。