梯度下降法
為什麼要介紹這篇文章? 在機器學習領域,要從數據取得好的機器學習模型,就需要有一套自動化的方法,這個方法就是梯 […]
線性回歸介紹 先來介紹何謂線性回歸? 線性回歸是一種最簡單建立數學模型的方法,它的作法是以線性方式擬合一群資料
淺談Lasso, Elastic net, Ridge方法 閱讀全文 »
介紹 DBSCAN是一種以密度為基礎的分群方法,判定鄰近資料點密度比較高的時候,就會視為同一群,透過這種方式可
DBSCAN分群是什麼?可應用在什麼樣的場景? 閱讀全文 »
介紹 先前文章有提到Transformer模型裡面有三個Multi-Head Attention的機制,在At
用類比法帶您快速了解Attention機制的關鍵概念—Query, Key, Value 閱讀全文 »
Why Transformer? 傳統RNN的架構是採用時序性的類神經網路進行自然語言的處理,這樣的方式就是透
白話文範例帶您了解Transformer核心原理: 從三個Multi-Head Attention角度出發 閱讀全文 »
為何我們需要有資料擴增的方法? 這是因為機器學習模型是需要有大數據打造而成,在很多現實的情況,數據量往往有限,
探索物理領域的資料擴增技術:提升機器學習效能的關鍵要素 閱讀全文 »
機器翻譯架構 Transformer可應用在許多任務當中,本篇文章以機器翻譯為舉例說明。先介紹一般機器翻譯的作
Transformer介紹:為何它是現今NLP技術發展的基石? 閱讀全文 »
鳶尾花分類介紹 鳶尾花細分會有不同種類,在機器學習常用的數據集裡面,就有鳶尾花數據集,裡面有不同鳶尾花的特徵以
從鳶尾花範例帶您了解深度學習(Deep Learning)、機器學習(Machine Learning)、規則為主方法(Rule-based Method) 閱讀全文 »
為什麼要介紹此篇文章? 現今大家關注的是GPT的模型,GPT模型是大型語言模型發展數年之後逐漸較確定的結果,事
從BERT到GPT模型帶您綜觀大型語言模型(LLM):編碼器(Encoder-only),編碼器解碼器(Encoder-Decoder),解碼器方法(Decoder) 閱讀全文 »
前言 機器學習並不像深度學習可以自動辨別關鍵特徵。機器學習在訓練之前,需要針對輸入進行特徵工程才會讓模型有好的
機器學習基礎—特徵歸一化(feature normalization) 閱讀全文 »
為什麼要要有度量標準? 當模型訓練完成後,我們不確定到底模型有沒有訓練好?有可能模型會有過擬合的現象,只有在特
判斷模型對於回歸問題的好壞—精確度(均方根誤差,MSE)與穩健度(全距,Range)的考量 閱讀全文 »
為什麼會有提示工程(prompt)? 先前有提到大型語言模型是學習處理通用的自然語言任務,如果要處理特定任務,
揭密大型語言模型(large language model, LLM) 變成萬事通的關鍵技術: 提示工程(prompt) 閱讀全文 »
為什麼要介紹分群演算法(cluster analysis)? 分群演算法是一種非監督式學習(unsupervi
分群演算法(cluster analysis) 閱讀全文 »
為什麼要介紹大型語言模型(large language model, LLM)以及微調的技巧(fine-tun
揭密大型語言模型(large language model, LLM) 變成專家的關鍵技術: 微調技巧(fine-tuning) 閱讀全文 »
在歷史上是由專家系統演變到機器學習為主的方法,專家系統是以規則為主(rule-based method)的方法
規則為主的方法(rule-based method)是什麼? 與機器學習(machine learning)的差異為何?它們的應用場景是在哪裡? 閱讀全文 »
自編碼器(autoencoder)是什麼?為何我們需要知道這樣的知識? 自編碼器(autoencoder)是基
從自編碼器(autoencoder)到ChatGPT架構:探索大型語言模型(LLM)的原理與基本概念 閱讀全文 »
何謂局部最小值? 機器學習在訓練AI模型的時候,其實是透過梯度下降法,進行最佳權重的查找。而最佳權重其實是在損
機器學習訓練完成的陷阱:何謂局部最小值?如何避免陷入局部最小值? 閱讀全文 »
批次訓練(mini-batch) 一般機器學習的訓練方式,是一次輸入所有訓練數據到機器當中進行訓練。但是這樣會
機器學習訓練: 批次訓練(mini-batch)是什麼?為何它可解決龐大數據面臨的痛點? 閱讀全文 »
在上次文章從ChatGPT探索GPT的原理概念:少量數據的解方—遷移學習技巧 提到 遷移學習的重要性,此處我們
ChatGPT是什麼?探索GPT原理:遷移學習(transfer learning)的奧秘—微調(fine-tuning)技巧 閱讀全文 »
為什麼需要遷移學習? 遷移學習主要是用來解決只有少量數據的問題,當數據量不多,而且我們又要採用深度學習的技巧,
從ChatGPT探索GPT的原理概念:少量數據的解方—遷移學習技巧 閱讀全文 »
這次跟大家分享的是用一個表格來統整針對不同問題種類與位置之適用的啟動函數。首先不管是在哪個問題種類,在隱藏層的
類神經網路—啟動函數介紹(四): 如何選擇最適當的啟動函數?用一統整表格讓您輕鬆掌握 閱讀全文 »
今天來跟大家介紹的是softmax啟動函數,此函數是用在多元分類的問題。而sigmoid函數只能用在二元分類的
類神經網路—啟動函數介紹(三): 掌握多元分類的核心技術:不可不知的softmax函數原理 閱讀全文 »
延續先前啟動函數的介紹,此處要再跟大家介紹兩個啟動函數,也就是linear和tanh函數。 線性函數的特性是x
類神經網路—啟動函數介紹(二): 回歸 vs. 分類: 線性函數與Tanh函數之原理探索 閱讀全文 »
學習率是在梯度下降法當中,一個關鍵的參數,調整得宜,才會使得類神經網路在訓練過程中,以較短時間訓練到最完美的階
類神經網路—反向傳播法(五): 用等高線圖讓您對學習率更有感 閱讀全文 »
本篇文章聽完李弘毅老師的講解之後有感而發,再透過自己的想法寫下來,因為ChatGPT尚未公開詳細作法,所以事實
淺談最近非常火紅的ChatGPT背後可能原理機制為何? 閱讀全文 »