課程簡介

可解釋人工智能簡介

  • 什麼是可解釋人工智能(XAI)?
  • AI模型透明度的重要性
  • AI可解釋性中的關鍵挑戰

基本的XAI技術

  • 模型無關方法:LIME、SHAP
  • 模型特定的可解釋性方法
  • 解釋黑箱模型的決策

XAI工具實踐

  • 開源XAI庫簡介
  • 在簡單的機器學習模型中實現XAI
  • 可視化解釋和模型行爲

可解釋性中的挑戰

  • 準確性與可解釋性之間的權衡
  • 當前XAI方法的侷限性
  • 處理可解釋模型中的偏見和公平性

XAI中的倫理考量

  • 理解AI透明性的倫理影響
  • 在可解釋性與模型性能之間取得平衡
  • XAI中的隱私和數據保護問題

XAI的實際應用

  • XAI在醫療、金融和執法領域的應用
  • 可解釋性的監管要求
  • 通過透明性建立對AI系統的信任

高級XAI概念

  • 探索反事實解釋
  • 解釋神經網絡和深度學習模型
  • 解釋複雜的AI系統

可解釋人工智能的未來趨勢

  • XAI研究中的新興技術
  • 未來AI透明性的挑戰與機遇
  • XAI對負責任AI開發的影響

總結與下一步

最低要求

  • 對機器學習概念的基本理解
  • 熟悉Python編程

受衆

  • AI初學者
  • 數據科學愛好者
 14 時間:

人數


每位參與者的報價

Upcoming Courses

課程分類