|

規則為主的方法(rule-based method)是什麼? 與機器學習(machine learning)的差異為何?它們的應用場景是在哪裡?

在歷史上是由專家系統演變到機器學習為主的方法,專家系統是以規則為主(rule-based method)的方法,是在解決問題的時候,依照各個領域的專家,擬定相對應的規則後,才能解決問題。但是在某些情況下規則擬定是不容易的,因此,這樣的方法並不是一個很全面的解決方法,而之後隨著電腦運算量的提升,以及數據量的累積,機器學習就逐漸變成了相當熱門的解決問題工具。原因是因為機器學習可讓機器從數據當中自動找出規則,而不用人為給定,在數據量充足的情況下,確實對於解決問題來說提供非常好的解決方法。讓大家面臨到束手無策的領域裡面,仍然可以找出一套方法來解決問題,因此,又稱為是一個賦能的技術。

雖然機器學習是一個在現代相當熱門的技術,不過專家系統(以規則為主的方法)並非完全被汰換掉,事實上,根據不同的問題類型,應該要選擇適當的方法,才能夠對症下藥,在解決問題的時候,得到非常好的成效。

何謂規則為主的方法(rule-based method)?

規則為主的方法(rule-based method)是從觀察事物運作的原理或現象,像是觀察某個現象的輸入與輸出之間的關係,提出規則來描述事物的運作模式,有了這種描述方法後,我們就可以從輸入預測輸出。

何謂機器學習(machine learning)?

機器學習方法(machine learning)是從數據資料中讓機器看過許多輸入與輸出之間的關係後,自行學習規則,就可以從輸入預測輸出。

範例說明

影像辨識(辨識汽車)

舉例來說,我們以影像辨識問題為例,假設我們的問題是要從圖片中辨識出汽車,在規則為主的方法,就會提出辨識規則,像是如果圖片上偵測有四個輪子,一個車體,就視為這張圖片為汽車。而機器學習的方法,則是收集大量的汽車圖片,將圖片設定為輸入,同時要賦予這個圖片標籤為汽車,標籤代表的是輸出,也就是標準解答,機器就可以從數據當中,了解圖片與標籤之間的關聯性,進而可以發展出辨識汽車的能力。

回歸問題(股價預測)

以股價預測的問題來說,規則為主的方法,輸入為歷史股價與新聞,此時會提出一些規則來作數值上的調整,像是如果某公司新聞為正面新聞,就根據歷史股價,再加加x元,就是未來股價的結果。反之,如果是負面新聞,則是根據歷史股價再減x元。機器學習的方法,則是在輸入部分,也就是資料的特徵,會給定t時刻下的歷史股價以及新聞,在輸出部分,也就是資料標籤,會給定t+1時刻下的未來股價,讓機器從數據當中學習t時刻股價與t+1時刻股價之間的關聯性。

物理應用領域(力學)

在物理應用領域上,假設我們要了解受力與加速度的關係,以規則為主的方法,其實就是根據牛頓第二運動定律F=ma,就可以得到受力與加速度之間的關係,而且因為這樣的規則是物理的定律,而不是來自於假說理論,在這種規則下的描述就會很穩固。而機器學習方法,則是在資料特徵部分要設定為受力,資料標籤部分設定為加速度,讓機器從數據歸納受力與加速度之間的關係。

規則與機器學習的特性

從我們上述的範例,規則為主的方法需要提出具體且有效的規則,才會對問題有好的描述;機器學習方法則是要有數據,以及給定資料特徵與標籤,才能從數據歸納出特徵與標籤的關係。

規則方法的先決條件是,須提出具體且有效的規則,但是在某些情境下,很多的經驗是可以意會,但難以定義出規則,像是以倒車入庫這件事情,有深厚駕駛經驗的人在面對不同的場地與汽車,都可以有好的倒車方式,但他們很難去教一個新手,在面對到不同場景時,有一個通用的規則,讓他們學會。

機器學習方法的先決條件是須要有數據,才能有機會歸納出輸入與輸出之間的關係,然而在某些情境下數據是不易取得的,像是要預估電動車電池的壽命,收集這些電池壽命的數據,就需要耗費5~10年以上的時間,這種需要長時間才能獲得數據的情況,數據是難以取得的。

結論

綜合以上所述,我們可歸納出以下三種情境,根據不同情境採用適合的方法,問題解決上才會有好的成效。

情境一就是在數據不易取得的情況下,像是剛剛提及的長時間才能獲得數據,在數據量缺少的情況,難以訓練機器學習模型,所以這時候如果有具體有效的規則,就可以採用規則為主的方法。

情境二就是數據量充足的情況下,而且沒有具體有效的規則,則採用機器學習的方法,讓機器自動歸納輸入與輸出之間的關係。

情境三如果數據量充足同時也有具體有效的規則,就可同時採用規則為主與機器學習方法,針對同一個問題,應用兩種解決方法,來作綜合的考量,讓問題解決上達到相輔相成的效果。

[相似文章]:

1.Rule-based v.s. AI方法比較

[參考資料]:

1.快速反應機制─類神經網路

2.機器學習與人工神經網路(二):深度學習(Deep Learning)

3.機器學習的衰頹興盛:從類神經網路到淺層學習

[類神經網路基礎系列專文]:

1.類神經網路(Deep neural network, DNN)介紹

2.類神經網路—揭開網路架構調整秘辛

3.類神經網路—啟動函數介紹(一): 深入解析Relu與Sigmoid函數:如何影響類神經網路的學習效果?

4.類神經網路—啟動函數介紹(二): 回歸 vs. 分類: 線性函數與Tanh函數之原理探索

5.類神經網路—啟動函數介紹(三): 掌握多元分類的核心技術:不可不知的softmax函數原理

6.類神經網路—啟動函數介紹(四): 如何選擇最適當的啟動函數?用一統整表格讓您輕鬆掌握

7.類神經網路—前向傳播法

8.類神經網路—反向傳播法(一): 白話文帶您了解反向傳播法

9.類神經網路—反向傳播法(二): 淺談梯度

10.類神經網路—反向傳播法(三): 五步驟帶您了解梯度下降法

11.類神經網路—反向傳播法(四): 揭開反向傳播法神秘面紗

12.機器學習訓練原理大揭秘:六步驟帶您快速了解監督式學習的訓練方法

13.類神經網路—反向傳播法(五): 用等高線圖讓您對學習率更有感

[機器學習基礎系列專文]:

1.機器學習訓練原理大揭秘:六步驟帶您快速了解監督式學習的訓練方法

2.機器學習面臨的問題種類介紹:回歸與分類

[類神經網路延伸介紹]:

1.卷積類神經網路(Convolution neural network,CNN)介紹

2.遞迴類神經網路(Recurrent neural network,RNN)介紹

[ChatGPT系列專文]:

1.淺談最近非常火紅的ChatGPT背後可能原理機制為何?

2.從ChatGPT探索GPT的原理概念:少量數據的解方—遷移學習技巧

Similar Posts