課程簡介

AI與安全基礎

  • AI系統在安全視角下的獨特性。
  • AI生命週期概述:數據、訓練、推理和部署。
  • AI風險的基本分類:技術、倫理、法律和組織。

AI特定威脅向量

  • 對抗性示例和模型操縱。
  • 模型反演和數據泄露風險。
  • 訓練階段的數據中毒。
  • 生成式AI的風險(如LLM濫用、提示注入)。

安全風險管理框架

  • NIST AI風險管理框架(NIST AI RMF)。
  • ISO/IEC 42001及其他AI特定標準。
  • 將AI風險映射到現有的企業GRC框架。

AI治理與合規原則

  • AI問責與可審計性。
  • 透明度、可解釋性和公平性作爲安全相關屬性。
  • 偏見、歧視及下游危害。

企業準備與AI安全政策

  • 定義AI安全計劃中的角色與職責。
  • 政策要素:開發、採購、使用和退役。
  • 第三方風險與供應商AI工具使用。

監管環境與全球趨勢

  • 歐盟AI法案及國際監管概述。
  • 美國關於安全、可靠和可信AI的行政命令。
  • 新興的國家框架與行業特定指南。

可選工作坊:風險映射與自我評估

  • 將真實世界的AI用例映射到NIST AI RMF功能。
  • 進行基本的AI風險自我評估。
  • 識別內部AI安全準備中的差距。

總結與下一步

最低要求

  • 對基礎網絡安全原則的理解。
  • 具備IT治理或風險管理框架的經驗。
  • 熟悉一般AI概念者優先,但不強制要求。

受衆

  • IT安全團隊。
  • 風險管理人員。
  • 合規專業人員。
 14 時間:

人數


每位參與者的報價

即將到來的課程

課程分類