Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
課程簡介
介紹
- 什麼是 Large Language Models (LLMs)?
- LLM 與傳統 NLP 模型
- LLM 功能和體系結構概述
- LLM的挑戰和局限性
瞭解 LLM
- 法學碩士的生命週期
- LLM 的工作原理
- LLM 的主要元件:編碼器、解碼器、注意力、嵌入等。
開始
- 設置開發環境
- 安裝LLM作為開發工具,例如Google Colab,Hugging Face
使用 LLM
- 探索可用的 LLM 選項
- 創建和使用 LLM
- 在自訂數據集上微調 LLM
文本摘要
- 瞭解文本摘要的任務及其應用
- 使用 LLM 進行提取和抽象文字摘要
- 使用 ROUGE、BLEU 等指標評估生成的摘要的品質。
問答
- 瞭解問答的任務及其應用
- 使用 LLM 進行開放域和封閉域問答
- 使用 F1、EM 等指標評估生成答案的準確性。
文本生成
- 瞭解文本生成的任務及其應用
- 使用 LLM 產生條件和無條件文本
- 使用溫度、top-k、top-p 等參數控制生成文本的樣式、語氣和內容。
將 LLM 與其他框架和平臺整合
- 在 PyTorch 或 TensorFlow 中使用 LLM
- 將 LLM 與 Flask 或 Streamlit 一起使用
- 將 LLM 與 Google Cloud 或 AWS 結合使用
故障排除
- 瞭解 LLM 中的常見錯誤和錯誤
- 使用 TensorBoard 監控和可視化訓練過程
- 使用 PyTorch Lightning 簡化訓練代碼並提高性能
- 使用 Hugging Face Datasets 載入和預處理數據
摘要和後續步驟
最低要求
-
對自然語言處理和深度學習的理解
具有 Python 和 PyTorch 或 TensorFlow 的經驗
基本程式設計經驗
觀眾
-
開發人員
NLP愛好者
數據科學家
14 時間: