Skip to content
李彼德之家

李彼德之家

Technology for Better Future

  • 首頁
  • 網站介紹與狀態
  • 白話文科技
  • 白話文人工智慧
  • 平台應用分享
  • 技術實作分享
  • 網頁工具
  • 生活分享
  • 夥伴連結
李彼德之家
李彼德之家
Technology for Better Future

微調

大型語言模型(large language model, LLM): 提示工程(prompt)
機器學習技術新知 | 白話文人工智慧 | 科技知識分享

大型語言模型(large language model, LLM): 提示工程(prompt)

ByPeter_Li 11 9 月, 202328 11 月, 2024

為什麼會有提示工程(prompt)? 先前有提到大型語言模型是學習處理通…

Read More 大型語言模型(large language model, LLM): 提示工程(prompt)Continue

大型語言模型(large language model, LLM) :微調技巧(fine-tuning)
機器學習技術新知 | 白話文人工智慧 | 科技知識分享

大型語言模型(large language model, LLM) :微調技巧(fine-tuning)

ByPeter_Li 3 8 月, 202328 11 月, 2024

為什麼要介紹大型語言模型(large language model, L…

Read More 大型語言模型(large language model, LLM) :微調技巧(fine-tuning)Continue

ChatGPT是什麼?探索GPT原理:遷移學習(transfer learning)的奧秘—微調(fine-tuning)技巧
白話文人工智慧 | 科技知識分享

ChatGPT是什麼?探索GPT原理:遷移學習(transfer learning)的奧秘—微調(fine-tuning)技巧

ByPeter_Li 22 4 月, 202322 4 月, 2023

在上次文章從ChatGPT探索GPT的原理概念:少量數據的解方—遷移學習…

Read More ChatGPT是什麼?探索GPT原理:遷移學習(transfer learning)的奧秘—微調(fine-tuning)技巧Continue

從ChatGPT探索GPT的原理概念:少量數據的解方—遷移學習技巧
白話文人工智慧 | 科技知識分享

從ChatGPT探索GPT的原理概念:少量數據的解方—遷移學習技巧

ByPeter_Li 5 4 月, 202322 4 月, 2023

為什麼需要遷移學習? 遷移學習主要是用來解決只有少量數據的問題,當數據量…

Read More 從ChatGPT探索GPT的原理概念:少量數據的解方—遷移學習技巧Continue

近期文章

2025 年 5 月
一 二 三 四 五 六 日
 1234
567891011
12131415161718
19202122232425
262728293031  
« 4 月    

最新文章

  • Anaconda虛擬環境教學
  • 決策樹原理
  • [好書推薦] 從零開始理解深度學習,易讀的圖解AI書籍
  • Anaconda使用pip install安裝python模組
  • Ideogram使用教學—高品質圖片的生成平台

文章分類

  • 力學
  • 平台應用分享
  • 技術實作分享
  • 機器學習基礎
  • 機器學習技術新知
  • 生活分享
  • 白話文人工智慧
  • 白話文科技
  • 科學基礎
  • 科技產品
  • 科技知識分享
  • 網頁工具
  • 鋰離子電池

網站統計

  • 0
  • 181
  • 148
  • 435
  • 274
  • 3,009
  • 14,617
  • 99,103
  • 148,227
  • 55,769
  • 101
  • 3
  • 11 5 月, 2025

李彼德粉絲專頁

最熱門的內容

  • 類神經網路(Deep neural network, DNN)介紹 (7,929)
  • Rule-based v.s. AI方法比較 (7,394)
  • Rule-based method是什麼? 與Machine Learning的差異為何?它們的應用場景是在哪裡? (5,746)
  • Softmax函數原理—多元分類核心技術 (5,128)
  • 大型語言模型(large language model, LLM) :微調技巧(fine-tuning) (4,461)
  • 深入解析Relu與Sigmoid函數:如何影響類神經網路的學習效果? (4,439)
  • 遞迴類神經網路(Recurrent neural network,RNN)介紹 (4,174)
  • 分群演算法(cluster analysis) (3,972)
  • 從BERT到GPT模型帶您綜觀大型語言模型(LLM):編碼器(Encoder-only),編碼器解碼器(Encoder-Decoder),解碼器方法(Decoder-only) (3,837)
  • 類神經網路—前向傳播法 (3,820)
  • ChatGPT背後可能原理機制為何? (3,760)
  • 卷積類神經網路(Convolution neural network,CNN)介紹 (3,701)
  • 白話文帶您了解反向傳播法 (3,546)
  • Transformer核心原理: 從三個Multi-Head Attention角度,白話文範例帶您了解 (3,537)
  • Attention機制的關鍵概念—Query, Key, Value用類比法帶您快速了解 (3,480)
  • 批次訓練(mini-batch)是什麼?為何它可解決龐大數據面臨的痛點? (3,446)
  • 網站介紹與狀態 (3,238)
  • 反向傳播法: 淺談梯度 (3,217)
  • 監督式學習的訓練方法—六步驟帶您了解 (3,083)
  • 類神經網路—揭開網路架構調整秘辛 (2,744)

© 2025 李彼德之家 - WordPress Theme by Kadence WP

  • 首頁
  • 網站介紹與狀態
  • 白話文科技
  • 白話文人工智慧
  • 平台應用分享
  • 技術實作分享
  • 網頁工具
  • 生活分享
  • 夥伴連結
Search