iPAS AI 風險管理 (Risk Management) 深度筆記

 

人工智慧技術應用規劃 | 單元 4.3 核心主題解析

一、 AI 風險的基本定義與分類

AI 風險管理不只是技術問題,更是法律、品牌與社會責任的整合。規劃師需具備識別「AI 特有風險」的能力。

  • 特有性: 與傳統軟體相比,AI 具有不確定性、黑盒特性及資料依賴性。
  • 生命週期風險: 從資料蒐集、模型訓練、部署到持續監控,每個階段都有不同風險。

二、 技術層面風險與對策 必考核心

技術性風險可能導致系統崩潰、判斷錯誤或遭受惡意攻擊。

核心技術風險對照表:
  • 概念漂移 (Concept Drift): 輸入與輸出之關係改變。
  • 資料漂移 (Data Drift): 輸入資料的分佈發生改變。
  • 風險類型現象說明應對策略
    對抗性攻擊 (Adversarial)故意加入微小干擾使模型誤判。對抗性訓練、輸入檢測與清洗。
    模型漂移 (Model Drift)隨時間推移,模型表現變差。持續監控效能、定期模型重訓。
    過擬合 (Overfitting)模型太依賴訓練資料,泛化力差。增加訓練資料量、正則化 (Regularization)。

    三、 資料與隱私層面風險

    資料是 AI 的燃料,也是最大的法律風險來源。

    3.1 資料外洩與重構風險

    • 資料投毒 (Data Poisoning): 攻擊者在訓練集混入假資料,影響模型行為。
    • 成員推斷攻擊: 攻擊者透過 API 查詢,推斷某特定資料是否在訓練集中。
    • 防禦技術:
      • 差分隱私 (Differential Privacy): 加入噪聲保護個資。
      • 去識別化: 遮罩、雜湊 (Hashing)、去特徵標籤。

    四、 倫理、偏見與公平性 管理師重點

    AI 的決定如果不公平,會對企業品牌造成毀滅性打擊。

    4.1 偏見 (Bias) 的來源

    • 歷史偏見: 訓練資料本身反映了社會的不公平現象。
    • 樣本偏見: 某類族群在資料集中數量過少 (Under-represented)。
    • 標註偏見: 標註人員的主觀意識影響結果。
    可解釋 AI (XAI) 的必要性:

    在醫療、金融、法律等領域,AI 必須提供「解釋」(如:為何拒絕貸款?),否則將面臨合規風險。常用工具如 LIME, SHAP。

    五、 法規合規與治理框架

    規劃師需隨時關注國內外 AI 監管趨勢。

    • 歐盟 AI 法案 (EU AI Act): 根據風險等級(禁止、高、中、低)進行監管。
    • GDPR (個資法): 強調被遺忘權及反對「純自動化決策」的權利。
    • 台灣 AI 基本法草案: 強調誠信、透明、安全、創新與責任歸屬。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照經濟部 iPAS 學習指引編撰

    沒有留言:

    張貼留言

    >