該專案主要帶你學習從0經驗的NLP新手到成為微調LLM的專家
該文章已被改寫成書籍『全面掌握生成式 AI 與 LLM 開發實務:NLP × PyTorch × GPT 輕鬆打造專屬的大型語言模型 』,有興趣的人歡迎選購
購買連結:前往購買
近幾個月來,因ChatGPT的出現,推動了NLP領域的發展,因此在本次鐵人賽的挑戰中,我會通過這30天的時間來講述NLP領域中的熱門模型背後的技術原理(例如:Transformer、BERT、GPT),並從實際的應用中,告訴你該怎麼撰寫這些模型的程式碼,以加深我們對該模型的印象。同時我會還會使用不同的工具,來分析這些文字之間的關聯性,並對此結果加以解釋,從而一步步的理解NLP模型中的共同之處與運算方式。
- 【Day 1】學習NLP前我們應該要準備什麼?
- 【Day 2】電腦該怎麼理解人類的語言 (上) - 文字怎麼輸入到模型中
- 【Day 3】電腦該怎麼理解人類的語言 (下) - 模型理解文字的方式
- 【Day 4】Pytorch & TorchText的正確開啟方式
- 【Day 5】深度神經網路該怎麼改變Embedding向量(上)-揭密神經網路訓練的過程
- 【Day 6】深度神經網路該怎麼改變Embedding向量(下)-PyTorch訓練的策略和方法
- 【Day 7】文字也是一種有時間序列的資料(上)-時間序列模型大揭密
- 【Day 8】文字也是一種有時間序列的資料(下)-用IMDB影評探索文字中的情緒
- 【Day 9】掌握文字翻譯的技術(上)-Seq2Seq與時間序列模型
- 【Day 10】掌握文字翻譯的技術(中)-為何需要注意力機制
- 【Day 11】掌握文字翻譯的技術(下)-英法語言翻譯模型
- 【Day 12】該如何選擇損失函數與激勵函數?中文該如何斷詞?
- 【Day 13】預訓練模型的強大之處? 我們要怎麼使用它?
- 【Day 14】解析詞嵌入預訓練模型的奧秘(上)-深度探索Word2Vec的奧妙之處
- 【Day 15】解析詞嵌入預訓練模型的奧秘(中)-全域統計的重要性GloVe技術解析
- 【Day 16】解析詞嵌入預訓練模型的奧秘(下)-fastText中Subword建立的重要性
- 【Day 17】解析詞嵌入預訓練模型的奧秘(終)-利用預先訓練的詞嵌入來保護隱私
- 【Day 18】會根據上下文改變的詞嵌入向量 (上) - 預訓練模型ELMo震撼登場
- 【Day 19】會根據上下文改變的詞嵌入向量 (下) - ELMo該如何使用與Embedding可視化
- 【Day 20】萬物皆可Transformer(上)-Transformer中所使用的技巧解析
- 【Day 21】萬物皆可Transformer(下) - 使用Transformer找出文本中重要的訊息
- 【Day 22】因為站在巨人的肩膀上才能眺望更遠的風景(上)-BERT的出現與溫故知新的重要性
- 【Day 23】因為站在巨人的肩膀上才能眺望更遠的風景(下)-使用SQuAD做QA問答
- 【Day 24】用暴力美學屹立於不敗之地(上) - GPT家族的霸道之路
- 【Day 25】用暴力美學屹立於不敗之地(下) - 用GPT-J來告訴你大型語言模型該如何用LoRA微調
- 【Day 26】當今最強大的SOTA模型ChatGPT(上)-prompt?instruction?RLHF?
- 【Day 27】當今最強大的SOTA模型ChatGPT(下)-讓ChatGPT成為你的私人助理
- 【Day 28】ChatGPT的挑戰者LLaMA(上) - 目前最強大的開源語言模型LLaMA究竟做了什麼
- 【Day 29】ChatGPT的挑戰者LLaMA(下) - 用RLHF與QLoRA調整大型語言模型
- 【Day 30】自然語言處理的旅程總結與未來學習方向