課程簡介

GPU加速容器化簡介

  • 瞭解GPU在深度學習工作流中的使用
  • Docker如何支持基於GPU的工作負載
  • 關鍵性能考慮因素

安裝和配置NVIDIA容器工具包

  • 設置驅動程序和CUDA兼容性
  • 驗證容器內的GPU訪問
  • 配置運行時環境

構建支持GPU的Docker鏡像

  • 使用CUDA基礎鏡像
  • 在GPU就緒的容器中打包AI框架
  • 管理訓練和推理的依賴項

運行GPU加速的AI工作負載

  • 使用GPU執行訓練任務
  • 管理多GPU工作負載
  • 監控GPU利用率

優化性能和資源分配

  • 限制和隔離GPU資源
  • 優化內存、批處理大小和設備放置
  • 性能調優和診斷

容器化推理和模型服務

  • 構建推理就緒的容器
  • 在GPU上服務高負載工作負載
  • 集成模型運行器和API

使用Docker擴展GPU工作負載

  • 分佈式GPU訓練策略
  • 擴展推理微服務
  • 協調多容器AI系統

GPU支持容器的安全性和可靠性

  • 確保共享環境中的GPU訪問安全
  • 加固容器鏡像
  • 管理更新、版本和兼容性

總結與下一步

最低要求

  • 瞭解深度學習基礎知識
  • 具備Python和常見AI框架的經驗
  • 熟悉基本的容器化概念

受衆

  • 深度學習工程師
  • 研究與開發團隊
  • AI模型訓練師
 21 時間:

人數


每位參與者的報價

客戶評論 (5)

即將到來的課程

課程分類