為什麼要要有度量標準?
當模型訓練完成後,我們不確定到底模型有沒有訓練好?有可能模型會有過擬合的現象,只有在特定資料才會預測準確,也有可能欠擬合,模型預測精準度非常差。因此,我們需要有方法來測試模型的好壞,一般的作法會輸入測試資料,讓模型預測,此時,我們可同時比對預測結果與真實解答的差距,再透過度量標準的計算,以了解模型的好壞。
回歸模型度量標準—衡量精確度與穩健度
在回歸問題上,模型預測是連續的數值,採用的度量標準是衡量模型的精確度與穩健度,這是因為我們希望模型預測的結果,可以既準確又穩定。
準確的意思代表的是模型預測的結果大致上貼近標準解答。
穩定的意思是當模型預測產生誤差時,這個誤差變化可控制在一定範圍內,不會產生突然一個資料進來,模型就大幅失準。
衡量精確度標準—均方根誤差
衡量精確度一般會採用均方根誤差,均分根誤差就是將計算真實解答與預測結果差距取平方後再累加起來,當均方根誤差小,則代表模型預測的誤差大致上是落在一定範圍內,但是無法確定其中有一些誤差可能會偏大或偏小。
而在誤差偏大的部分,有可能在某些領域上將產生嚴重危害,舉例來說,在自動駕駛部分,如果均分根誤差小於一定程度,代表大致上的駕駛都還算精準,但是如果剛好有其中一個誤差偏大,車輛很有可能就會撞上障礙物,造成極大危害。所以在這樣的應用當中,不但精確度要小,穩健度也要高。
穩健度—全距(or極差)
計算穩健度的方式就是採用全距來判斷,全距是將最大誤差與最小誤差相減,藉此,了解整體誤差變化的範圍。
全距越小,代表整體誤差變化越小,這樣我們就能確保模型在運作的時候,就算有偏差,偏差也不會太大,才能確保模型應用在某些領域上,可以更安全。
結論
本篇文章介紹了衡量模型好壞的標準,也就是要考量精確度與穩健度,才能確保模型應用在場域的時候,可以完美的表現。
[參考資料]:
2.機器學習與人工神經網路(二):深度學習(Deep Learning)
[類神經網路基礎系列專文]:
1.類神經網路(Deep neural network, DNN)介紹
3.類神經網路—啟動函數介紹(一): 深入解析Relu與Sigmoid函數:如何影響類神經網路的學習效果?
4.類神經網路—啟動函數介紹(二): 回歸 vs. 分類: 線性函數與Tanh函數之原理探索
5.類神經網路—啟動函數介紹(三): 掌握多元分類的核心技術:不可不知的softmax函數原理
6.類神經網路—啟動函數介紹(四): 如何選擇最適當的啟動函數?用一統整表格讓您輕鬆掌握
8.類神經網路—反向傳播法(一): 白話文帶您了解反向傳播法
10.類神經網路—反向傳播法(三): 五步驟帶您了解梯度下降法
11.類神經網路—反向傳播法(四): 揭開反向傳播法神秘面紗
12.機器學習訓練原理大揭秘:六步驟帶您快速了解監督式學習的訓練方法
13.類神經網路—反向傳播法(五): 用等高線圖讓您對學習率更有感
[機器學習基礎系列專文]:
1.機器學習訓練原理大揭秘:六步驟帶您快速了解監督式學習的訓練方法
[類神經網路延伸介紹]:
1.卷積類神經網路(Convolution neural network,CNN)介紹
2.遞迴類神經網路(Recurrent neural network,RNN)介紹
[ChatGPT系列專文]: