【從遊戲發行角度聊聊近期的天堂M機率事件】
背景說明一下:
●人氣直播主丁特,花了數百萬直播製作紫布上百次成功率才2.x%,而韓版公布機率為10%。
●《天堂M》曾表示所有機率與韓版設定相同。但事發後也同步更改機率公告,從原本的「所有機率與韓版一致」改為「本公告僅提供所有消費類型『機率性商品』設定規則與韓版一致,不含遊戲內道具強化、製作等機率設定」
先聲明,我沒什麼朋友在橘子遊戲部門,也不認識丁特先生,也不會以道德的角度來講這件事情,只是想讓大家了解一下,遊戲發行碰到這類事情的立場與思考模式是什麼。
--
首先,大部分的台灣遊戲發行公司,對於原廠機率“沒有”更改的權利;越大的遊戲研發公司,越不會讓發行擅改機率,尤其市場相對中國日本韓國更小的台灣。
現在遊戲的機率設定“非常複雜”,每一項機率彼此之間都有關係,發行商不懂隨便調整機率,很容易造成遊戲的崩壞。我沒有跟NCsoft合作過,但有跟幾家韓國大型遊戲商合作的經驗,基本上完全不讓發行有調整機率的可能。(連要到機率表都不容易)
越是大型的公司,對遊戲設定的可調整彈性就"越低",因為那是千百萬個樣本下所驗證的最佳設定,不接受沒有科學根據的調動。
同理,一個“正常”的遊戲發行公司,理論上不會去想調整《天堂M》的任何機率設定。因為一個在韓國長期霸佔暢銷榜首的“成功”遊戲,任何自以為是的調整,都可能都會造成原數值體系不可預期的影響,使得遊戲收入反而下滑。
“沒有壞的東西不要修,成功的體系不要亂動”,這是一個正常發行商都會有的認知。(但橘子決策過程正不正常我不清楚就是)
最後,“機率不是調越低,收入就會越高”。太低的機率反而會讓人卻步,就跟一直賺不到錢的老虎機不會讓人上癮一樣。每個機率的設定都有所謂的“甜蜜點”,而這個甜蜜點是需要大量測試、計算、驗證才能得出。
--
那為什麼台灣和韓國的機率會不同?
我猜想《天堂M》一開始的紫布製作機率,有可能真的是10%,但隨著遊戲上線後,經過千萬次的測試以及A/B Test後,遊戲方發現2~3%所帶來的收益才能最大化,因此進行了微調。
至於這是原廠擅自更動?還是橘子弄的台灣特別版?
這我當然不知道,但以自己做發行十幾年的經驗,很多時候原廠的“有趣程度”超乎一般人想像.....上錯不同版本的機率表,順手調整某些設定而沒告知,修了A bug結果C bug跑出來,這些都是我曾親身經歷只能往肚子裡吞的血淚。
因為這些錯誤太蠢了,蠢到發行自己都無法相信,更不用說攤開來跟玩家講。所以很多玩家才會覺得台灣發行商都亂搞,有時候還真只能苦笑三聲自我化解。
這也是轉蛋法實際推行所會碰到的困難之一。除非是自行研發,否則台灣九成以上的發行商對原廠機率沒有掌控權的;更不用說遊戲機率被驗證是有難度的,因為很少遊戲會像《天堂M》般,有大戶願意花上百萬做「人體實驗」,而玩家不花這麼多錢,就無法證明機率的準確性。
但我個人還是支持轉蛋法就是,資訊透明對中小廠商消除競爭差距,還是有一定幫助。
PS.以上所述,為個人所理解的“正常”遊戲發行思考模式,是否適用《天堂M》紫布事件無法確認。
#倒是很少博弈遊戲玩家要求公布機率?
同時也有1部Youtube影片,追蹤數超過5萬的網紅hokoonho,也在其Youtube影片中提到,This is a photo comparison from the latest smart phone(s) Please arrange the order, Best to worst. I have serval smartphones, XZ, iPhone 7, V20, P9 P...
a/b test是什麼 在 Code For Marketing Facebook 的最讚貼文
【 Data 很重要,但你真的會看指標嗎?】
為什麼我們要訂指標?
指標如果沒達到會發生什麼事?
達到了指標就真的代表做對事情嗎?
Data 很重要,但指標跟Data的關係是什麼呢?
今天我們帶大家來複習下這兩者關係
更多內容都在->
A/B 電子書
https://blog.codeformarketing.co/a-b-test_optimize_preview/
__________________
【 🔥會員制度測試計畫!讓你一次觀看所有電子書!🔥】
活動詳情請參考
https://forms.gle/DJsYqmxo95EuRQbZ9
預覽A/B 電子書內容
https://blog.codeformarketing.co/a-b-test_optimize_preview/
a/b test是什麼 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
訓練AI模型,要多少數據?拆解企業人工智慧專案為何難落地
2020.12.09 by 若水AI Blog
企業導入AI似乎已成為一種趨勢,但是訓練AI模型,需要多少數據?其背後的商業命題與成本又該如何解決?帶你來一起窺探AI專案背後的秘密!
企業的AI專案在釐清問題本質、找到命題之後,首先會面臨到一個問題:收集數據(Data Collection)和建立AI模型(Model Establishing),該以什麼作為評估基準?
訓練一個AI數據模型,需要多少數據?
訓練AI數據模型時,其實有三個要素,彼此互相影響。分別是: 商業問題的複雜度 、 AI模型複雜度 (Model Complexity),以及 數據複雜度 (Data Complexity)。
因此,如果想知道需要多少訓練數據(Training Data),建議先釐清:這個AI專案到底要處理什麼問題,以及這個問題有多複雜?確定之後,再來判斷應該選用哪種程度的模型來做訓練。根據不同的商業命題複雜度,用不同複雜度的模型和精準數據彼此搭配,找出最佳平衡,才能讓AI專案順利落地。
但光憑想像,很難評估實際的AI數據量和成效,所以開始AI的第一步,需要先透過POC概念驗證(Proof of Concept)實驗來找答案。
簡單來說,就是針對不同複雜程度的商業問題,嘗試選用不同複雜度的模型搭配測試,直到模型跑出來的曲線,符合理想目標。
一般狀態下,假設商業問題本身的複雜度很高,我們會預期要選擇複雜度較高的模型。但是如果數據量不足,那麼選擇複雜度較高的AI模型,反而會比用簡單的AI模型效果還差。(上圖左上、右上,分別代表複雜度10和複雜度50的問題,可以明顯看出複雜的模型曲線比較接近學習數據集(Dataset),但是在測試數據集上的誤差 Eout,反而比簡單模型還差了許多。)
上圖的左下和右下,是以不同複雜度的模型去做POC,跑出來的結果曲線圖。藍色線代表的是學習數據(Training Data)成效,紅色線代表的是測試數據(Testing Data)成效。最理想的POC目標,應該是兩條曲線很貼近彼此,而且位置越低越好。
我們會發現,左下這張圖的兩條曲線雖然彼此貼近,但是就算增加數據,也無法降低誤差。這表示模型偏誤(Bias)高,效果不佳,應該要增加模型複雜度 (Model Complexity)。
增加模型複雜度之後,就會像右下這張圖,藍色曲線(學習數據)雖然數值很低,但在學習數據不足的情況下(灰色區塊),紅色曲線(測試數據)卻「飄」得太高。這表示模型變異誤差(Variance)高,應該要增加學習數據。最後在慢慢增加模型複雜度以及學習數據之後,我們就可以達到理想的結果(兩條曲線很貼近彼此,而且位置越低越好)。
數據哪裡來?發展AI人工智慧之前,先建立數據流
先前我在文章裡提到,很多企業會急著開發AI模型,但AI專案落地經驗的三大關鍵之一,其實是先確認:是否已經準備好數據了?如果沒有這樣的能力,談AI落地其實有點好高騖遠。
AI數據收集(Data Collection)最大的挑戰,在於針對不同型態的命題,會產生不同的AI數據需求,因此需要建立的「數據流」(Data Pipeline),AI數據處理 (Data Processing)和數據標註(Data Annotation)的模式及流程也會有所不同。
發展AI之前,如果能建立起從數據收集(Data Collection)、數據處理(Data Processing)到AI模型學習的數據流(Data Pipeline),並確保可以順暢運行,實際訓練AI模型時才會省力很多。
數據不夠或太多怎麼辦?
Google開設的機器學習(Machine Learning)課程中,第一項原則就開宗明義地指出:「Don’t be afraid to launch a product without machine learning」。
如果你的產品或業務不一定需要用到機器學習(Machine Learning),那就別用,除非你有AI數據。有數據,再來談機器學習(Machine Learning)。但在業界的實際狀況,大家不是沒有數據,而是只有一些些,這時候該怎麼辦?我會建議,先從小地方開始做起,也就是從POC專案著手。
POC專案要有具體成效,除了要注意設計專案、實驗模型的指標(Metrics),企業最重要的是要先定義清楚:AI專案要達到什麼樣的指標,才算是成功?這樣最後做出來的成果,才會真正符合商業目標。
如果今天不是沒有AI數據,而是數據很多,又該從何下手呢?
我建議,嘗試減少訓練AI人工智慧時的「 數據大小 」和「 數據筆數 」。
過去曾經處理過一個AI專案,數據多達2億筆。第一次實驗,把數據全部餵進AI模型,取得結果。第二次,只拿其中有代表性的500萬筆出來訓練人工智慧。
猜猜結果如何?兩次實驗的表現,只差異不到1%。
所以,如果企業對於AI數據的品質和數量有一定程度的自信根據,其實不用把數據全部餵進AI模型訓練(Model Training),只用有代表性的AI數據來訓練就可以了。市面上很多常見的AI工具(Cluster),可以做到這點,幫助省時省力。
AI模型訓練,記得校準商業目標
企業發展AI人工智慧的最終目的,還是希望能 達到商業目標,創造價值 。
所以,訓練AI模型時,團隊如果不知道如何判斷哪個指標,對AI模型學習來說比較重要,建議回歸初心,重新釐清「 這個專案想達到的商業目標是什麼 」。
比方,趨勢科技(Trend Micro)要開發一個能夠判斷電腦病毒的AI,但是勒索病毒(denial-of-access attack)和廣告病毒對客戶的傷害程度大不相同。這時候,工程師就會針對這個命題,餵給AI模型不同病毒種類的數據,讓它學會判斷不同病毒的重要性,分辨出哪些病毒比較嚴重不能有判斷錯誤,而哪些病毒比較無害,不一定要做到一百分。
最常見的訓練方法,是用成本函數(Cost Function)的方式,訓練完再回去調整AI模型的評分(Rating),用加扣分的方式,告訴機器它的學習表現是好是壞,做對就加分,做錯就扣分。
上述評分原則的制定,和企業的商業價值考量息息相關,所以一般在組織分工,會由PM專案團隊負責判斷哪些項目重要,請資料科學家設計在上述Cost Function裡面。
很多人以為,AI人工智慧開發要做到很完美才行,但其實根據我們的經驗,只要AI開發成本符合預算、AI模型表現可接受(大約做到60–70分),而且結果有助於降低成本,就可以算是達到商業目標。反過來,即使AI模型表現非常好(高達90分),但成本卻遠超出預算,就不建議執行。
另外,因為POC階段會做很多的實驗,需要拿兩個穩定且可以互相比較的基準做A/B Test,所以做好基礎建設非常重要。
如果一個團隊裡面有三位工程師,但三個人做出來的結果都無法互相比較,那麼這個實驗就會變得霧裡看花,導致AI專案難以落地。
AI數據小學堂:模型指標(metrics)
在做模型實驗時,通常會用混淆矩陣(Confusion Matrix)的四種指標:TP(True Positive)、TN(True Negative)、FP(False Positive)、FN(False Negative),以及Count、Unique和Accuracy等等函數,來判斷這個模型的表現好不好。
P或TN值,代表模型辨識的答案正確,和預期結果一致。例如:模型正確判斷出「這是一隻貓」、「這不是一隻貓」。而FP或FN值,則代表模型的判斷錯誤,例如「明明是貓,模型卻說不是貓」、「明明不是貓,模型卻說它是貓」。
附圖:AI模型 若水國際
AI模型的POC概念驗證實驗怎麼做?
資料來源:https://www.bnext.com.tw/article/60440/ai-strategy-04?fbclid=IwAR1SOhjjGxypdGgOGfaBIl_a1IsZFJAQZ8J2aeDd98spbUfOdg7hiPQP7UA
a/b test是什麼 在 hokoonho Youtube 的最佳貼文
This is a photo comparison from the latest smart phone(s)
Please arrange the order, Best to worst.
I have serval smartphones, XZ, iPhone 7, V20, P9 Plus.
which is the best? arrange in the comment below.
e.g. B,C,A,D
What is A,B,C,D?
I will tell you later at the end of the description .
stay tuned for the answer.
這是最新智能電話的拍攝樣本
請排次序, 由好到差
我有多部新的智能電話, XZ, iPhone 7, V20, P9 Plus.
那一部影的相最好? 請留言排次序.
例如 B,C,A,D
A,B,C,D 是什麼?
我會在這裡告訴你
請遲些回來看結果.
Just wait more ppl to join this game before I tell you what is A,B,C,D
interestingly, different ppl have totally different choice. This prove that there is no absolute winner here.
A. Phone brand "S" in M mode, 23 MP
B Phone brand "S" in auto mode, 23 MP
C Phone brand "S" in M mode, 8 MP
D Phone brand "S" in auto mode, 8 MP