Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
課程簡介
介紹
- 人工神經網路與基於決策樹的演算法
XGBoost 功能概述
- Elements 的 Gradient Boosting 演算法
- 專注於計算速度和模型性能
- XGBoost vs Logistic 回歸 Random Forest 和標準梯度提升
基於樹的演算法的演變
- 決策樹、裝袋、Random Forest、提升、梯度提升
- 系統優化
- 演演算法增強功能
準備環境
- 安裝 SciPy 和 scikit-learn
創建 XGBoost 模型
- 下載數據集
- 解決常見的分類問題
- 訓練 XGBoost 模型進行分類
- 解決常見的回歸任務
監控性能
- 評估和報告績效
- 提前停止
按重要性繪製特徵
- 計算特徵重要性
- 決定保留或丟棄哪些輸入變數
配置梯度提升
- 查看訓練和驗證數據集的學習曲線
- 調整學習率
- 調整樹的數量
超參數優化
- 提高 XGBoost 模型的性能
- 設計受控實驗以優化超參數
- 搜索參數組合
創建 Pipeline
- 將 XGBoost 模型整合到端到端機器學習管道中
- 優化管道中的超參數
- 高級預處理技術
故障排除
總結和結論
最低要求
- 編寫機器學習模型的經驗
觀眾
- 數據科學家
- 機器學習工程師
14 時間: