類神經網路—啟動函數介紹(四): 如何選擇最適當的啟動函數?用一統整表格讓您輕鬆掌握

這次跟大家分享的是用一個表格來統整針對不同問題種類與位置之適用的啟動函數。首先不管是在哪個問題種類,在隱藏層的部分,都是採用Relu函數,目的在於可以有效篩選掉不重要的特徵,保留重要特徵。在輸出層的部分,針對回歸問題,將採用線性函數,目的在於產生一連續數值。而針對二元分類問題,則是採用Sigmoid/Tanh函數,用來區分輸出到底是類別0或1。針對多元分類問題,則是採用Softmax函數,目的在於可以給出在多個類別當中,分出屬於某個類別的結果。

[參考資料]:

1.快速反應機制─類神經網路

2.機器學習與人工神經網路(二):深度學習(Deep Learning)

3.機器學習的衰頹興盛:從類神經網路到淺層學習

[相關文章]:

1.類神經網路(Deep neural network, DNN)介紹

2.類神經網路—揭開網路架構調整秘辛

3.類神經網路—啟動函數介紹

4.類神經網路—前向傳播法

5.類神經網路—反向傳播法(一): 白話文帶您了解反向傳播法

6.類神經網路—反向傳播法(二): 淺談梯度

7.類神經網路—反向傳播法(三): 五步驟帶您了解梯度下降法

8.類神經網路—反向傳播法(四): 揭開反向傳播法神秘面紗

9.機器學習訓練原理大揭秘:六步驟帶您快速了解監督式學習的訓練方法

10.類神經網路—反向傳播法(五): 用等高線圖讓您對學習率更有感

[延伸閱讀]:

1.卷積類神經網路(Convolution neural network,CNN)介紹

2.遞迴類神經網路(Recurrent neural network,RNN)介紹

3.淺談最近非常火紅的ChatGPT背後可能原理機制為何?