課程簡介

AI威脅建模簡介

  • AI系統的脆弱性來源是什麼?
  • AI攻擊面與傳統系統的比較
  • 主要攻擊向量:數據層、模型層、輸出層和接口層

AI模型的對抗攻擊

  • 理解對抗樣本和擾動技術
  • 白盒攻擊與黑盒攻擊
  • FGSM、PGD和DeepFool方法
  • 可視化與製作對抗樣本

模型反演與隱私洩露

  • 從模型輸出推斷訓練數據
  • 成員推斷攻擊
  • 分類模型和生成模型中的隱私風險

數據中毒與後門注入

  • 中毒數據如何影響模型行為
  • 觸發式後門與木馬攻擊
  • 檢測與淨化策略

魯棒性與防禦技術

  • 對抗訓練與數據增強
  • 梯度掩蔽與輸入預處理
  • 模型平滑與正則化技術

隱私保護的AI防禦

  • 差分隱私簡介
  • 噪聲注入與隱私預算
  • 聯邦學習與安全聚合

AI Security 實踐應用

  • 威脅感知的模型評估與部署
  • 在實際應用中使用ART(對抗魯棒性工具箱)
  • 行業案例研究:真實世界的漏洞與緩解措施

總結與下一步

最低要求

  • 理解机器学习工作流程和模型训练
  • 熟悉Python及常见ML框架,如PyTorch或TensorFlow
  • 了解基本的安全或威胁建模概念会有所帮助

受众

  • 机器学习工程师
  • 网络安全分析师
  • AI研究人员和模型验证团队
 14 時間:

人數


每位參與者的報價

Upcoming Courses

課程分類