人工智慧技術應用規劃 | 單元 4.3 核心主題解析
一、 AI 風險的基本定義與分類
AI 風險管理不只是技術問題,更是法律、品牌與社會責任的整合。規劃師需具備識別「AI 特有風險」的能力。
- 特有性: 與傳統軟體相比,AI 具有不確定性、黑盒特性及資料依賴性。
- 生命週期風險: 從資料蒐集、模型訓練、部署到持續監控,每個階段都有不同風險。
二、 技術層面風險與對策 必考核心
技術性風險可能導致系統崩潰、判斷錯誤或遭受惡意攻擊。
核心技術風險對照表:概念漂移 (Concept Drift): 輸入與輸出之關係改變。 資料漂移 (Data Drift): 輸入資料的分佈發生改變。
| 風險類型 | 現象說明 | 應對策略 |
|---|---|---|
| 對抗性攻擊 (Adversarial) | 故意加入微小干擾使模型誤判。 | 對抗性訓練、輸入檢測與清洗。 |
| 模型漂移 (Model Drift) | 隨時間推移,模型表現變差。 | 持續監控效能、定期模型重訓。 |
| 過擬合 (Overfitting) | 模型太依賴訓練資料,泛化力差。 | 增加訓練資料量、正則化 (Regularization)。 |
三、 資料與隱私層面風險
資料是 AI 的燃料,也是最大的法律風險來源。
3.1 資料外洩與重構風險
- 資料投毒 (Data Poisoning): 攻擊者在訓練集混入假資料,影響模型行為。
- 成員推斷攻擊: 攻擊者透過 API 查詢,推斷某特定資料是否在訓練集中。
- 防禦技術:
- 差分隱私 (Differential Privacy): 加入噪聲保護個資。
- 去識別化: 遮罩、雜湊 (Hashing)、去特徵標籤。
四、 倫理、偏見與公平性 管理師重點
AI 的決定如果不公平,會對企業品牌造成毀滅性打擊。
4.1 偏見 (Bias) 的來源
- 歷史偏見: 訓練資料本身反映了社會的不公平現象。
- 樣本偏見: 某類族群在資料集中數量過少 (Under-represented)。
- 標註偏見: 標註人員的主觀意識影響結果。
可解釋 AI (XAI) 的必要性:
在醫療、金融、法律等領域,AI 必須提供「解釋」(如:為何拒絕貸款?),否則將面臨合規風險。常用工具如 LIME, SHAP。
五、 法規合規與治理框架
規劃師需隨時關注國內外 AI 監管趨勢。
- 歐盟 AI 法案 (EU AI Act): 根據風險等級(禁止、高、中、低)進行監管。
- GDPR (個資法): 強調被遺忘權及反對「純自動化決策」的權利。
- 台灣 AI 基本法草案: 強調誠信、透明、安全、創新與責任歸屬。
沒有留言:
張貼留言