iPAS 常見機器學習演算法 (ML Algorithms) 深度筆記

 

機器學習技術與應用 | 單元 4.2 核心主題解析

一、 線性模型:統計學的基石 必考指標

線性模型是解釋性最強的模型,也是處理結構化資料的首選入門方法。

1.1 線性回歸 (Linear Regression)

原理: 尋找一條直線 $y = wx + b$,最小化預測值與實際值的殘差平方和 (MSE)。

限制: 假設資料呈線性關係,對異常值 (Outliers) 敏感。

1.2 邏輯回歸 (Logistic Regression)

原理: 雖名為回歸,實則用於 「分類」。透過 Sigmoid 函數將線性輸出映射到 [0, 1] 之間,代表機率。

優點: 運算快、輸出具機率意義、模型參數具解釋性。

二、 決策樹與集成學習 (Ensemble Learning) 高頻考點

這是目前實務上處理「表格資料 (Tabular Data)」效能最強大的家族。

核心概念對照:
技術說明核心機制
決策樹 (Decision Tree)透過資訊增益 (Information Gain) 或 Gini 指數切割資料。易過擬合,解釋性極佳。
隨機森林 (Random Forest)Bagging 策略。並行訓練多棵樹,最後投票決定。降低變異 (Variance),防止過擬合。
提升法 (Boosting)串行訓練。後一棵樹學習前一棵樹的 殘差 (Error)如 XGBoost, LightGBM, CatBoost。

三、 支持向量機 (SVM) 與 K-近鄰 (KNN)

3.1 支持向量機 (SVM)

原理: 尋找一個超平面 (Hyperplane),使兩類資料間的 間隔 (Margin) 最大化

關鍵字: 核函數 (Kernel Trick) — 將低維不可分資料投射到高維空間。適合小樣本、高維度資料。

3.2 K-近鄰演算法 (KNN)

原理: 惰性學習 (Lazy Learning)。預測時計算與鄰居的距離(如歐式距離),「近朱者赤」。

缺點: 計算量隨資料量增加而劇增,且受特徵量綱(單位)影響大(需做正規化)。

四、 無監督學習:分群與降維 探索性分析

當資料沒有標籤 (Label) 時使用的演算法。

K-Means 分群:
  1. 隨機初始化 K 個中心點。
  2. 將每個點分配給最近的中心。
  3. 重新計算中心點位置,直到收斂。

※ 注意:需事先指定 K 值,且對初始值敏感(常使用 K-Means++ 改善)。

4.2 主成分分析 (PCA)

原理: 線性降維。尋找資料變異最大的方向,將高維資料投影過去。目的:減少特徵數、去除雜訊、資料視覺化。

五、 演算法選擇情境對照表 決策必讀

應用情境建議演算法關鍵原因
預測房價、氣溫線性回歸、XGBoost (Regression)預測連續數值。
垃圾郵件、腫瘤辨識邏輯回歸、隨機森林、SVM二元分類任務。
電商客戶分眾K-Means, 層次聚類探索隱藏群體。
手寫文字、高維影像深度學習 (CNN)、SVM (Kernel)特徵極度複雜且非線性。
表格資料且求極致準度XGBoost / LightGBMBoosting 家族在結構化資料表現最優。

© iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

Read More »

iPAS 機器學習原理與技術 (ML Principles) 深度筆記

 

機器學習技術與應用 | 單元 4.1 核心主題解析

一、 機器學習的三大範式 必考核心

根據資料是否有「標籤 (Label)」以及與環境的互動方式,可分為以下三類:

類型資料特徵目標代表場景
監督式 (Supervised)有標籤 (Input + Label)學習對映函數 $y = f(x)$。房價預測、垃圾郵件分類。
無監督式 (Unsupervised)無標籤 (只有 Input)找出資料內在結構或分群。客戶分群、異常檢測。
強化學習 (Reinforcement)環境回饋 (Reward)學習在特定狀態下的最優決策。AlphaGo、自動駕駛。

二、 監督式學習經典演算法 高頻考點

規劃師需了解不同演算法的優缺點,以根據需求選擇模型。

2.1 線性回歸與邏輯回歸

  • 線性回歸 (Linear Regression): 預測「連續型」數值。
  • 邏輯回歸 (Logistic Regression): 雖然叫回歸,但用於「分類任務」。透過 Sigmoid 函數將輸出映射至 0~1。

2.2 支撐向量機 (SVM)

尋找一個最優超平面 (Hyperplane),使兩類資料間的 邊界 (Margin) 最大化。若資料線性不可分,可使用「核函數 (Kernel Trick)」映射到高維空間。

2.3 決策樹 (Decision Tree)

基於屬性測試的樹狀結構。優點是 具高度可解釋性。缺點是單一樹模型容易 過擬合 (Overfitting)

三、 無監督式學習與降維技術

在沒有標準答案的情況下,如何發現規律?

核心技術:
  • K-Means 分群: 將樣本分為 K 個簇,使簇內距離最小、簇間距離最大。須事先設定 K 值。
  • 主成分分析 (PCA): 透過線性代數變換,將高維特徵投影至低維度,並保留最大變異量。
  • 關聯規則 (Association Rules): 找出事件間的同時發生規律(如:尿布與啤酒)。

四、 模型評估指標與偏差-方差權衡 應試大熱點

如何判斷模型是好是壞?為什麼模型在訓練集很準,測試集卻很爛?

4.1 偏差 (Bias) vs 方差 (Variance)

  • 高偏差 (High Bias): 模型太簡單,「學不會」,導致 欠擬合 (Underfitting)
  • 高方差 (High Variance): 模型太複雜,「背死書」,導致 過擬合 (Overfitting)
分類任務評估指標 (混淆矩陣):
  • 準確率 (Accuracy): 答對的比例(樣本不平衡時不適用)。
  • 精確率 (Precision): 預測為正樣本中,真正為正的比例(防錯殺)。
  • 召回率 (Recall): 實際為正樣本中,被預測出來的比例(防漏抓)。
  • F1-Score: 精確率與召回率的調和平均(綜合指標)。

五、 集成學習 (Ensemble Learning) 效能巔峰

「團結力量大」,結合多個弱學習器來構建一個強學習器。

  • Bagging (自助聚合): 並行訓練多個模型,最後投票或平均。代表:隨機森林 (Random Forest)。優點:降低方差,防止過擬合。
  • Boosting (提升法): 串行訓練,後面的模型專注於修正前面模型的錯誤。代表:XGBoost, LightGBM。優點:大幅降低偏差,效能極佳。

© iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」單元 4.1

Read More »

iPAS 數值優化技術 (Numerical Optimization) 深度筆記

 

機器學習技術與應用 | 單元 3.3 核心主題解析

一、 優化的核心:損失函數與目標 必考定義

機器學習的過程本質上是在 「尋找一組參數 $w$,使得損失函數 $L(w)$ 達到最小值」。優化技術就是指引模型如何調整參數的方法。

1.1 常見損失函數 (Loss Functions)

  • 均方誤差 (MSE): 常用於「回歸任務」。計算預測值與實際值之差的平方平均。
  • 交叉熵 (Cross-Entropy): 常用於「分類任務」。衡量兩個機率分佈的差異,數值越小代表預測越準。
凸函數 (Convex Function) 的物理意義:

若損失函數是「凸」的,則 局部最小值 (Local Minimum) 就是全局最小值 (Global Minimum),優化過程最為簡單。非凸函數(如深度神經網路)則容易陷入局部陷阱。

二、 梯度下降法 (Gradient Descent) 高頻考點

梯度代表函數上升最快的方向,因此「負梯度」方向就是下山最快的方向。

權重更新公式:
$w_{new} = w_{old} - \eta \cdot \nabla L(w)$
(其中 $\eta$ 為學習率,$\nabla L(w)$ 為梯度)

2.1 三種梯度下降策略比較

  • MBGD (小批量)
  • 策略說明優點缺點
    BGD (批量)使用「全量」資料計算梯度。路徑穩定,保證收斂。資料量大時計算極慢,記憶體溢出。
    SGD (隨機)隨機挑選「1 筆」資料計算。計算速度極快。路徑非常震盪,難以精確收斂。
    挑選「一小群 (Batch)」資料。工業界標準。兼顧穩定性與速度。需額外調整 Batch Size。

    三、 優化器進化:從 SGD 到 Adam 演算法進階

    為了克服基本 SGD 的收斂速度慢與震盪問題,科學家發展了多種進階優化器。

    • 動量法 (Momentum): 模擬物理動量,保留先前的更新趨勢。優點:加速通過平坦區,抑制震盪。
    • AdaGrad: 「自適應」調整學習率。頻繁更新的參數學習率調低,稀疏參數調高。缺點:後期學習率趨於 0,導致訓練停止。
    • RMSProp: 解決 AdaGrad 學習率遞減過快的問題,只參考近期的梯度大小。
    • Adam: 目前最主流優化器。結合了「動量」與「自適應學習率」的優點。

    四、 學習率 (Learning Rate, $\eta$) 的影響

    學習率是 AI 訓練中最關鍵的「超參數 (Hyperparameter)」。

    學習率設置情境:
    • 學習率過大: 跨步過猛,會導致在最小值附近 震盪甚至發散,無法收斂。
    • 學習率過小: 步履蹣跚,訓練 速度極慢,且容易陷入局部最小值。
    • 學習率調度 (Scheduler): 訓練初期大、後期小,是一種常見的優化策略。

    五、 正則化與防止過擬合 應試大熱點

    數值優化不僅要讓 Loss 變小,還要確保模型在測試集(未知資料)表現良好。

    5.1 過擬合 (Overfitting) vs. 欠擬合 (Underfitting)

    • 過擬合: 訓練 Loss 極低,測試 Loss 極高。模型「背死書」。
    • 欠擬合: 訓練與測試 Loss 都很高。模型「學不會」。
    正則化 (Regularization) 手段:
    • L1 正則化 (Lasso): 增加絕對值權重懲罰。會產生「稀疏性」,起到 特徵選擇 的作用。
    • L2 正則化 (Ridge): 增加平方權重懲罰。讓權重趨近於小數值,減少單一特徵的主導權,增加模型穩定性。
    • 早停法 (Early Stopping): 當驗證集 Loss 開始上升時即停止訓練。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

    Read More »

    iPAS 線性代數基礎 (Linear Algebra) 深度筆記

     

    機器學習技術與應用 | 單元 3.2 核心主題解析

    一、 資料的幾何表示:向量與張量 必考定義

    在 AI 中,資料不再是單一數字,而是存在於多維空間中的點或方向。

    1.1 張量 (Tensor) 的層級

    • 純量 (Scalar): 0 維,單一數值(如:氣溫)。
    • 向量 (Vector): 1 維,一組數值。在 AI 中代表「特徵向量」。
    • 矩陣 (Matrix): 2 維,資料表形式。代表「樣本集」或「模型權重」。
    • 張量 (Tensor): 3 維以上。如:彩色影像(寬 × 高 × RGB 三通道)。
    餘弦相似度 (Cosine Similarity):

    透過向量的內積 (Dot Product) 計算兩個向量夾角的餘弦值。常用於 NLP 文字語義相似度。夾角越小,餘弦值越接近 1,代表越相似。

    二、 矩陣運算與線性轉換

    矩陣乘法 $Ax = b$ 在機器學習中具有強烈的物理意義:將向量 $x$ 從一個空間「轉換」到另一個空間。

    2.1 關鍵運算與性質

    • 轉置矩陣 (Transpose): 行列互換 ($A^T$)。常用於計算協方差矩陣。
    • 逆矩陣 (Inverse): 若 $A \cdot A^{-1} = I$,代表該轉換可逆。若行列式 (Det) 為 0,則矩陣不可逆(奇異矩陣)。
    • 矩陣乘法: 深度學習中神經元的神經傳導本質就是「矩陣(權重)與向量(輸入)的乘法」。

    三、 特徵值與特徵向量 (Eigenvalues & Eigenvectors) 演算法靈魂

    當一個矩陣 $A$ 作用於特徵向量 $v$ 時,$v$ 的方向不變,僅長度縮放了 $\lambda$ 倍。

    特徵方程式:
    $Av = \lambda v$
    為什麼特徵值重要?

    在資料分析中,最大的特徵值 對應的方向代表了資料 變異量 (Variance) 最大 的方向。這就是找出資料主要特徵(主成分)的數學依據。

    四、 矩陣分解技術 (SVD)

    奇異值分解 (Singular Value Decomposition) 是將複雜矩陣拆解為三個簡單矩陣乘積的過程。

    4.1 SVD 的應用

    • 推薦系統: 將「用戶-電影」矩陣分解,找出隱藏的偏好特徵(隱含語義分析)。
    • 影像壓縮: 只保留較大的奇異值,剔除細微噪訊,達成壓縮效果。
    • 穩定性: 與特徵分解不同,SVD 適用於任何形狀(非方陣)的矩陣。

    五、 降維技術的數學基礎 (PCA) 高頻考點

    主成分分析 (Principal Component Analysis) 是線性代數在 AI 中最直接的應用。

    PCA 的計算流程(邏輯理解):
    1. 中心化: 將資料減去平均值,使重心位於原點。
    2. 協方差矩陣: 計算各特徵間的相關性。
    3. 特徵分解: 找出協方差矩陣的特徵向量。
    4. 投影: 將資料投影到前 $k$ 個特徵向量(主成分)上。

    ※ 目的:減少特徵數量、消除雜訊、解決多元共線性問題。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

    Read More »

    iPAS 機率與統計基礎 (Prob & Stats) 深度筆記

     

    機器學習技術與應用 | 單元 3.1 核心主題解析

    一、 描述性統計:資料的縮影 必考基礎

    描述性統計是用簡單的數值來概括大量資料的特徵,主要分為「集中趨勢」與「離散程度」。

    1.1 集中趨勢 (Central Tendency)

    • 平均數 (Mean): 所有資料總和除以個數。容易受極端值影響。
    • 中位數 (Median): 資料排序後的中點。對極端值較具魯棒性 (Robust)。
    • 眾數 (Mode): 出現頻率最高的值。適用於類別型資料。

    1.2 離散程度 (Dispersion)

    • 變異數 (Variance): 資料與平均值差異平方的平均。
    • 標準差 (Standard Deviation): 變異數的平方根,單位與原始資料一致。
    • 四分位距 (IQR): $Q3 - Q1$,用來識別異常值的基礎指標(通常大於 $1.5 \times IQR$ 為異常)。

    二、 條件機率與貝氏定理 邏輯核心

    貝氏定理是機器學習中「生成式模型」的基礎,用於在已知某些證據的情況下,更新對某一事件發生的信心。

    貝氏定理公式:
    $P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}$
    關鍵術語解析:
    • 事前機率 (Prior): $P(A)$,在看到證據前的信念。
    • 似然值 (Likelihood): $P(B|A)$,假設 $A$ 成立下,看到證據 $B$ 的機率。
    • 事後機率 (Posterior): $P(A|B)$,看到證據 $B$ 後,修正對 $A$ 的信念。

    ※ 應試提醒:單純貝氏 (Naive Bayes) 分類器假設特徵之間「彼此獨立」,以簡化運算。

    三、 常用機率分佈與應用場景

    選擇正確的分佈模型是規劃 AI 應用的第一步。

    分佈名稱特徵/情境AI 應用範例
    白努利分佈 (Bernoulli)單次實驗,只有兩種結果 (0/1)。預測單個廣告是否被點擊。
    二項分佈 (Binomial)$n$ 次獨立實驗中的成功次數。預測 100 個零件中有幾個瑕疵品。
    常態分佈 (Normal/Gaussian)自然界最常見,呈鐘形曲線。大多數模型的殘差假設、特徵標準化。
    卜瓦松分佈 (Poisson)單位時間/空間內事件發生次數。預測每小時進入商店的客流量。

    四、 統計推論:估計與檢定

    AI 不只是擬合模型,還需要驗證結果是否具有「統計顯著性」。

    4.1 最大似然估計 (MLE)

    尋找一組參數,使得觀察到的資料出現機率最大。這是許多機器學習演算法(如邏輯回歸)尋找權重的原理。

    假設檢定 (Hypothesis Testing):
    • 虛無假設 ($H_0$): 通常假設「沒有差異」或「效果為零」。
    • P-值 (P-value): 若 $P < 0.05$,代表在 $H_0$ 成立下看到此結果的機率極低,故「拒絕 $H_0$」,承認具有顯著性。

    五、 機器學習中的機率應用 整合考點

    如何將上述數學連結到實際的模型開發?

    • 損失函數 (Loss Functions): 邏輯回歸使用的 Cross-Entropy 本質上源自資訊理論與機率對數。
    • 機率輸出: 分類模型(如 Softmax)輸出的通常是屬於各類別的機率分佈,而非硬性標籤。
    • 正規化與機率: L1/L2 正規化可以被解釋為給予權重不同的「事前分佈」(Prior)。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

    Read More »

    iPAS AI 系統集成與部署 (Integration & Deployment) 深度筆記

     

    人工智慧技術應用規劃 | 單元 5.2 核心主題解析

    一、 AI 系統架構設計 (Cloud vs Edge) 高頻考點

    規劃師必須根據應用場景(延遲需求、安全性、成本)選擇部署架構。

    部署架構對照表:
    架構類型說明優點缺點
    雲端部署 (Cloud)模型運行在遠端高效能伺服器。強大算力、易於管理維護、靈活擴展。高延遲、頻寬需求大、資料隱私疑慮。
    邊緣運算 (Edge)模型運行在終端設備(如手機、感測器)。即時性高、低頻寬成本、隱私保護性強。算力受限、設備電力受限、模型更新難。
    混合架構 (Hybrid)邊緣進行預處理或初步推論,複雜任務傳回雲端。平衡效能與隱私。系統開發複雜度高。

    二、 服務化與介面設計 (API & Microservices)

    AI 模型需透過標準化介面與現有系統集成,通常採用微服務架構以提升穩定性。

    • 模型服務化 (Model as a Service): 將模型封裝成 API(如 RESTful API 或 gRPC),供前端或後端呼叫。
    • 異步處理 (Asynchronous): 針對耗時較長的推論任務(如影片分析),採用訊息隊列(Message Queue)進行處理,避免系統阻塞。
    • 微服務 (Microservices): 將 AI 功能與主系統邏輯解耦,若 AI 服務當機,不影響主系統運作。

    三、 容器化與編排技術 (Docker/K8s)

    為了解決「在我的電腦跑得動,但在伺服器跑不動」的問題,容器化是必備技術。

    3.1 Docker 容器化

    將 AI 模型及其依賴環境(Python 版本、CUDA 驅動、函式庫)打包成 鏡像 (Image),確保環境一致性。

    Kubernetes (K8s) 的角色:

    當 AI 服務流量變大時,K8s 負責 自動擴縮 (Auto-scaling)、負載平衡及故障轉移。確保 AI 推論服務在高併發下仍能穩定提供服務。

    四、 MLOps 與持續交付流程 現代化維運核心

    MLOps = ML + Dev + Ops。其目的是實現 AI 模型的自動化開發、測試、部署與監控。

    4.1 CI/CD/CT 流程

    • CI (持續整合): 自動化測試程式碼品質。
    • CD (持續部署): 自動化將通過測試的模型部署至生產環境。
    • CT (持續訓練): 當偵測到新資料或效能下降時,觸發模型自動重練(這是 AI 與傳統軟體最大的差異)。

    五、 上線後的模型監控與維運

    模型上線後才是風險的開始,必須建立全方位的監控系統。

    監控關鍵指標:
    • 系統性能: CPU/GPU 使用率、推論延遲 (Latency)、回應成功率。
    • 模型效能: 準確率 (Accuracy) 的下滑情況。
    • 資料漂移 (Data Drift): 即時輸入資料的分佈是否與訓練資料偏離?
    • 概念漂移 (Concept Drift): 問題本身的性質是否隨時間改變?(如:疫情期間大眾消費習慣改變)。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照經濟部 iPAS 學習指引編撰

    Read More »

    iPAS 數據準備與模型選擇 (Data Prep & Selection) 深度筆記

     

    iPAS 數據準備與模型選擇 (Data Prep & Selection) 深度筆記

    人工智慧技術應用規劃 | 單元 5.1 核心主題解析

    一、 資料清洗與預處理技術 必考基礎

    「垃圾進,垃圾出 (GIGO)」是 AI 核心鐵律。資料預處理是為了將原始數據轉化為機器能理解的數學形式。

    常見資料處理手法:
    處理類型技術名稱說明
    缺失值處理插補法 (Imputation)使用平均數、中位數或眾數填補缺失欄位。
    量綱統一標準化 (Standardization)將數據縮放至均值為 0、標準差為 1 (Z-Score)。
    量綱統一歸一化 (Normalization)將數據縮放至 [0, 1] 區間 (Min-Max)。
    類型轉換獨熱編碼 (One-Hot Encoding)將類別型資料轉為 0 與 1 的向量(避免數值大小誤導)。

    二、 特徵工程 (Feature Engineering)

    特徵工程是提升模型效能最有效的方法。它包含特徵的創造、提取與選擇。

    • 特徵提取 (Extraction): 從原始資料提取有用資訊(如從生日計算年齡)。
    • 特徵選擇 (Selection): 移除無關或冗餘的特徵,減少運算量。
    • 降維 (Dimension Reduction): 使用 PCA (主成分分析) 將高維資料投影至低維空間,保留最大變異量。

    三、 資料增強與採樣策略

    當面臨資料不足或類別不平衡 (Imbalance) 時使用的技術。

    3.1 資料增強 (Data Augmentation)

    主要應用於影像與語音:旋轉、翻轉、縮放、裁切、增加噪聲。目的在於提升模型的 泛化能力 (Generalization)

    類別不平衡處理:
    • 過採樣 (Oversampling): 增加少數類別的樣本(如 SMOTE 演算法)。
    • 欠採樣 (Undersampling): 減少多數類別的樣本(易丟失資訊)。

    四、 模型選擇的決策邏輯 情境題核心

    模型選擇需在「複雜度」、「資料量」與「資源」之間取得平衡。

    4.1 任務類型分類

    • 回歸任務 (Regression): 預測連續數值(如房價、氣溫)。
    • 分類任務 (Classification): 預測離散標籤(如垃圾郵件判定、腫瘤辨識)。
    • 分群任務 (Clustering): 無標籤資料自動分組(如客群分眾)。
    • 生成任務 (Generation): 產生新內容(如文字摘要、圖像生成)。
    選擇原則:
    • 小數據集: 優先考慮統計模型、決策樹、隨機森林。
    • 大數據集/非結構化資料: 優先考慮深度學習 (CNN, RNN, Transformer)。
    • 可解釋性需求: 選擇線性回歸、邏輯回歸、決策樹。

    五、 學習任務與指標對齊

    在規劃階段,必須明確模型要最佳化的指標是什麼。

    學習範式說明代表演算法
    監督式學習有標籤 (Label),明確對錯。線性回歸、SVM、神經網路
    無監督式學習無標籤,找出資料結構。K-Means、PCA、關聯規則
    強化學習透過環境回饋 (Reward) 學習策略。Q-Learning、DQN

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照經濟部 iPAS 學習指引編撰

    Read More »

    iPAS AI 風險管理 (Risk Management) 深度筆記

     

    人工智慧技術應用規劃 | 單元 4.3 核心主題解析

    一、 AI 風險的基本定義與分類

    AI 風險管理不只是技術問題,更是法律、品牌與社會責任的整合。規劃師需具備識別「AI 特有風險」的能力。

    • 特有性: 與傳統軟體相比,AI 具有不確定性、黑盒特性及資料依賴性。
    • 生命週期風險: 從資料蒐集、模型訓練、部署到持續監控,每個階段都有不同風險。

    二、 技術層面風險與對策 必考核心

    技術性風險可能導致系統崩潰、判斷錯誤或遭受惡意攻擊。

    核心技術風險對照表:
  • 概念漂移 (Concept Drift): 輸入與輸出之關係改變。
  • 資料漂移 (Data Drift): 輸入資料的分佈發生改變。
  • 風險類型現象說明應對策略
    對抗性攻擊 (Adversarial)故意加入微小干擾使模型誤判。對抗性訓練、輸入檢測與清洗。
    模型漂移 (Model Drift)隨時間推移,模型表現變差。持續監控效能、定期模型重訓。
    過擬合 (Overfitting)模型太依賴訓練資料,泛化力差。增加訓練資料量、正則化 (Regularization)。

    三、 資料與隱私層面風險

    資料是 AI 的燃料,也是最大的法律風險來源。

    3.1 資料外洩與重構風險

    • 資料投毒 (Data Poisoning): 攻擊者在訓練集混入假資料,影響模型行為。
    • 成員推斷攻擊: 攻擊者透過 API 查詢,推斷某特定資料是否在訓練集中。
    • 防禦技術:
      • 差分隱私 (Differential Privacy): 加入噪聲保護個資。
      • 去識別化: 遮罩、雜湊 (Hashing)、去特徵標籤。

    四、 倫理、偏見與公平性 管理師重點

    AI 的決定如果不公平,會對企業品牌造成毀滅性打擊。

    4.1 偏見 (Bias) 的來源

    • 歷史偏見: 訓練資料本身反映了社會的不公平現象。
    • 樣本偏見: 某類族群在資料集中數量過少 (Under-represented)。
    • 標註偏見: 標註人員的主觀意識影響結果。
    可解釋 AI (XAI) 的必要性:

    在醫療、金融、法律等領域,AI 必須提供「解釋」(如:為何拒絕貸款?),否則將面臨合規風險。常用工具如 LIME, SHAP。

    五、 法規合規與治理框架

    規劃師需隨時關注國內外 AI 監管趨勢。

    • 歐盟 AI 法案 (EU AI Act): 根據風險等級(禁止、高、中、低)進行監管。
    • GDPR (個資法): 強調被遺忘權及反對「純自動化決策」的權利。
    • 台灣 AI 基本法草案: 強調誠信、透明、安全、創新與責任歸屬。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照經濟部 iPAS 學習指引編撰

    Read More »

    PAS AI 導入規劃 (Implementation Planning) 深度筆記

     

    人工智慧技術應用規劃 | 單元 4.2 核心主題解析

    一、 資料蒐集與標註規劃 核心基礎

    AI 專案的成功 80% 取決於資料。導入規劃必須明確資料的來源與處理流程。

    1.1 資料生命週期管理

    • 資料採集: 確定資料源(資料庫、感測器、網路爬蟲)及採集頻率。
    • 資料清洗: 處理重複、缺失值、異常值及雜訊。
    • 隱私去識別化: 規劃如何處理個資(如遮罩、雜湊),以符合法規。
    標註策略 (Annotation Strategy):
    策略說明適用情境
    人工標註聘請專家或工讀生手動標記。高品質需求、醫療/法律專業領域。
    半監督標註模型先預標註,人工再進行審核。大規模資料、預算有限。
    群眾外包將任務發布至平台(如 MTurk)。常識類任務(如圖中有幾隻狗)。

    二、 模型選擇與算法規劃

    規劃師須根據業務需求選擇最適合的模型,而非盲目追求最先進 (SOTA) 的模型。

    2.1 模型評選準則

    • 性能指標: 準確率、精確率、召回率是否達標?
    • 推論效率: 預測時間 (Latency) 是否符合實際應用(如即時檢測需 < 30ms)?
    • 可解釋性: 業務端是否需要理解 AI 決策邏輯?(金融、醫療高度要求)。
    • 可維護性: 模型是否易於重新訓練與更新?

    三、 基礎設施與運算資源規劃

    根據預算與技術能力,決定運算環境的佈建策略。

    雲端環境 (Cloud)

    • 優點: 擴展性強、隨租隨用、無需硬體維護。
    • 代表: AWS Sagemaker, Azure ML, GCP Vertex AI。

    在地部署 (On-Premise)

    • 優點: 資料安全性高、長期成本可能較低、低延遲。
    • 適用: 機密研發單位、政府、半導體廠。
    邊緣運算 (Edge Computing) 規劃:

    若 AI 需部署於無網路環境或需極低延遲,需規劃模型壓縮技術(如 量化 Quantization、剪枝 Pruning)以適應嵌入式硬體。

    四、 專案時程與人力配置 PM 職能考點

    AI 專案具有高度的不確定性,規劃時需預留迭代空間。

    4.1 WBS (工作分解結構) 重點

    1. 環境建置: 算力資源與開發工具配置。
    2. 資料準備: 清洗與標註(通常佔比最長)。
    3. 原型開發 (PoC): 驗證模型可行性。
    4. 整合測試: 模型與前端/後端系統整合。

    4.2 團隊核心成員角色

    • 資料科學家: 負責演算法設計與訓練。
    • 資料工程師: 負責資料管道 (Pipeline) 的自動化與存儲。
    • AI 應用規劃師: 負責跨部門協調、定義需求、評估效益及風險。
    • 領域專家 (SME): 提供標註準則及驗證 AI 回答的正確性。

    五、 模型測試與驗證規劃

    在正式上線前,必須確保模型的穩定性與邊界效能。

    • A/B Testing: 讓部分用戶用新模型,部分用舊系統,對比實際效益。
    • 壓力測試: 測試高併發請求下系統的負荷能力。
    • 反向測試 (Backtesting): 使用歷史資料驗證模型預測結果。
    • 對抗性測試: 故意輸入極端或攻擊性資料,檢查模型的防禦力。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照經濟部 iPAS 學習指引編撰

    Read More »
    >