iPAS 模型選擇與架構設計 (Model & Architecture) 深度筆記

 

機器學習技術與應用 | 單元 5.2 核心主題解析

一、 模型選擇的基本原則 規劃核心

模型選擇並非越複雜越好,而是要根據「資料量」、「問題類型」與「部署環境」來決定。

1.1 考量因素

  • 問題本質: 分類 (Classification)、回歸 (Regression) 還是分群 (Clustering)?
  • 資料量大小:
    • 資料少:選簡單模型(如線性回歸、SVM),避免過擬合。
    • 資料多:選深層網路(如 Transformer、CNN),提取複雜特徵。
  • 解釋性需求: 醫療、金融領域優先選「白箱模型」(如決策樹、邏輯回歸);純準確率導向選「黑箱模型」(如深度學習)。

二、 偏差與變異的權衡 (Bias-Variance Tradeoff) 必考原理

這是衡量模型效能最基礎的理論架構。

術語說明現象解決方案
高偏差 (High Bias)模型太簡單,沒學到資料規律。欠擬合 (Underfitting)增加特徵、增加模型複雜度。
高變異 (High Variance)模型太複雜,學到了雜訊。過擬合 (Overfitting)增加資料、正則化 (L1/L2)、Dropout。
奧卡姆剃刀原則 (Occam's Razor):

如果兩個模型具有相似的解釋能力(預測效果),應該選擇較簡單的那一個。簡單模型通常具有更好的泛化能力 (Generalization)。

三、 常用網路架構類型 技術選型

在設計 AI 系統時,必須了解不同架構的適用範疇。

3.1 卷積神經網路 (CNN)

特性: 具備卷積層與池化層,擁有「平移不變性」。

場景: 電腦視覺 (CV)、影像分類、物件偵測。

3.2 循環神經網路 (RNN / LSTM)

特性: 具備記憶性,處理序列資料。

場景: 時間序列預測、語音辨識(雖然目前多被 Transformer 取代)。

3.3 Transformer 架構

特性: 注意力機制 (Attention)。平行運算能力強,處理長距離依賴效果好。

場景: 自然語言處理 (NLP)、大語言模型 (LLM)。

四、 模型架構優化技術 效能調整

如何在保持準確率的同時,讓模型更快、更輕量?

  • 超參數調優 (Hyperparameter Tuning):
    手動調整學習率 (Learning Rate)、批次大小 (Batch Size)、層數。
    方法: 網格搜尋 (Grid Search)、隨機搜尋 (Random Search)。
  • 模型壓縮 (Compression):
    • 權重剪枝 (Pruning): 移除影響小的神經元權重。
    • 量化 (Quantization): 將 32-bit 浮點數轉為 8-bit 整數,加速推論。
    • 知識蒸餾 (Distillation): 大模型 (Teacher) 指導小模型 (Student)。

五、 部署考量:雲端 vs. 邊緣 (Edge) 應用規劃

架構設計必須考慮推理 (Inference) 的執行位置。

部署位置優點缺點適用情境
雲端 (Cloud)運算力強、可處理複雜大模型。依賴網路、延遲高、隱私疑慮。大數據分析、生成式 AI。
邊緣 (Edge)低延遲、省頻寬、資料不出在地。運算資源有限(記憶體/功耗)。自駕車、工廠設備監控。

© iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

Read More »

iPAS 數據準備與特徵工程 (Feature Engineering) 深度筆記

 

機器學習技術與應用 | 單元 5.1 核心主題解析

一、 資料清理:垃圾進,垃圾出 (GIGO) 基本原則

資料清理是整個機器學習流程中耗時最長(約 70-80%)但最重要的步驟。

1.1 主要任務

  • 重複值處理: 刪除重複的紀錄,避免模型給予特定樣本過高權重。
  • 異常值偵測 (Outlier Detection): 識別並處理極端錯誤數據。
    • 方法:3倍標準差、IQR (四分位距法)、箱型圖視覺化。
  • 一致性檢查: 確保單位(米 vs 公分)、日期格式、類別名稱統一。

二、 缺失值處理技術 (Imputation) 高頻考點

實務資料常有缺漏,處理方式會直接影響模型穩定性。

處理策略適用場景優缺點
直接刪除 (Deletion)缺失比例極低(< 5%)。最簡單,但可能遺失重要資訊。
均值/中位數插補數值型資料、分佈較均勻。簡單快,但會低估數據變異。
眾數插補類別型資料保留類別特性,但易產生偏誤。
模型插補 (K-NN/Iterative)缺失具相關性。準確度高,但計算成本大。
考點提示:

並非所有缺失都應插補。有時缺失本身就是一個「特徵」(例如:未填寫信用卡額度可能代表該客戶沒有信用卡),此時可將缺失值標記為一個獨立的類別(如 "Unknown")。

三、 類別資料編碼 (Encoding) 轉換邏輯

機器學習模型只能理解「數字」,因此文字類別必須轉換。

  • 標籤編碼 (Label Encoding):
    將類別轉為 0, 1, 2...。
    限制: 適合有「順序性」的資料(如:小、中、大)。若用於無順序資料(如:紅、藍),模型會誤以為「藍(1) > 紅(0)」。
  • 獨熱編碼 (One-Hot Encoding):
    為每個類別建立新欄位。
    限制: 類別太多時會導致「維度災難」,造成矩陣極度稀疏。

四、 特徵縮放 (Scaling) 與 數據轉換 必考原理

不同特徵的單位(量綱)差異過大時,會導致模型訓練困難。

技術名稱公式邏輯特性與建議
最小最大縮放 (Min-Max)$(x-min)/(max-min)$將資料壓縮至 [0, 1]。對異常值極敏感
標準化 (Standardization)$(x-\mu)/\sigma$轉為平均 0、標準差 1。適用於梯度下降與 SVM。
對數轉換 (Log Transform)$log(x)$處理 「長尾分佈」,使其趨近常態分佈。
為什麼要縮放?

若特徵 A 範圍是 0-10000,特徵 B 是 0-1。在計算「距離」(如 KNN)或進行「梯度下降」時,特徵 A 會主導整個權重更新,導致模型無法學習特徵 B 的細微變化。

五、 特徵選擇與降維 效能優化

過多的特徵會導致模型過擬合且訓練慢,必須進行精簡。

5.1 三大特徵選擇法

  • 過濾法 (Filter): 透過統計指標(如相關係數、卡方檢定)。速度最快,與模型無關。
  • 包裹法 (Wrapper): 使用特定模型不斷試錯(如遞歸特徵消除 RFE)。準確但計算極慢。
  • 嵌入法 (Embedded): 訓練時自動篩選。典型例子:L1 正則化 (Lasso)

© iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

Read More »

iPAS 深度學習原理與框架 (Deep Learning) 深度筆記

 

機器學習技術與應用 | 單元 4.3 核心主題解析

一、 神經網路基礎組件 必考核心

深度學習是受生物神經系統啟發的分層結構,其核心在於「權重學習」。

1.1 基本架構

  • 輸入層 (Input Layer): 接收特徵向量(如影像像素)。
  • 隱藏層 (Hidden Layers): 多層結構。層數越多,模型越「深」,能學習越複雜的非線性特徵。
  • 輸出層 (Output Layer): 產生最後預測(如分類標籤)。
  • 權重 (Weights) 與 偏差 (Bias): 模型要調整的參數。
全連接層 (Fully Connected Layer, FC):

每一層的每個神經元都與下一層的所有神經元連接。參數數量多,容易過擬合。在卷積神經網路 (CNN) 中,FC 通常放在網路末端進行最後的決策。

二、 反向傳播與自動微分 計算原理

神經網路如何「學習」?答案是靠梯度下降與反向傳播 (Backpropagation)。

2.1 反向傳播流程

  1. 前向傳播 (Forward Pass): 輸入進入網路,計算預測值與損失函數 (Loss)。
  2. 計算梯度: 利用 連鎖律 (Chain Rule),從輸出層往輸入層方向,計算 Loss 對每個權重的偏微分。
  3. 更新權重: 根據梯度方向微調參數,減少誤差。
梯度消失 (Vanishing Gradient) 問題:

當層數太深,且使用 Sigmoid 等函數時,梯度在連鎖律相乘過程中會趨近於 0,導致前面幾層學不動。這是推動 ReLU 函數 普及的主因。

三、 常用激發函數 (Activation Functions)

激發函數賦予了神經網路「非線性」表達能力,否則再多層疊加也只是線性組合。

名稱公式特性應用場景優缺點
Sigmoid輸出 [0, 1]二元分類輸出層。易產生梯度消失。
Tanh輸出 [-1, 1]隱藏層(中心點為 0)。效果優於 Sigmoid,但仍有梯度消失風險。
ReLU$max(0, x)$隱藏層主流首選計算快、減緩梯度消失。有 "Dead ReLU" 問題。
Softmax總和為 1多分類輸出層將輸出轉為機率分佈。

四、 深度學習框架比較 工程實務

規劃 AI 應用時,選擇合適的開發工具至關重要。

4.1 主流框架對照

  • TensorFlow (Google):
    • 優點:生態系完整、部屬工具 (TF Serving, TF Lite) 強大。
    • 特色:早期為靜態圖 (Static Graph),現已支援動態。
  • PyTorch (Meta):
    • 優點:語法 Pythonic、**動態圖 (Dynamic Graph)** 易於偵錯、學術界主流。
    • 特色:靈活性高,適合快速原型開發。
  • Keras: 高階 API(可運行於 TF 之上),極度簡化模型搭建流程,適合初學者。

五、 硬體加速與計算資源

深度學習需要龐大的張量運算量,傳統 CPU 已無法應付。

硬體類型全名定位與特色
CPU中央處理器處理複雜邏輯,不擅長大規模平行運算。
GPU圖形處理器深度學習主力。擁有數千核心,極擅長矩陣平行計算。
TPU張量處理器Google 專為機器學習設計的 ASIC。在雲端大規模訓練效率極高。
NPU/Edge AI神經處理器專為「推論」設計,低功耗,常用於手機或邊緣裝置。

© iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

Read More »

iPAS 常見機器學習演算法 (ML Algorithms) 深度筆記

 

機器學習技術與應用 | 單元 4.2 核心主題解析

一、 線性模型:統計學的基石 必考指標

線性模型是解釋性最強的模型,也是處理結構化資料的首選入門方法。

1.1 線性回歸 (Linear Regression)

原理: 尋找一條直線 $y = wx + b$,最小化預測值與實際值的殘差平方和 (MSE)。

限制: 假設資料呈線性關係,對異常值 (Outliers) 敏感。

1.2 邏輯回歸 (Logistic Regression)

原理: 雖名為回歸,實則用於 「分類」。透過 Sigmoid 函數將線性輸出映射到 [0, 1] 之間,代表機率。

優點: 運算快、輸出具機率意義、模型參數具解釋性。

二、 決策樹與集成學習 (Ensemble Learning) 高頻考點

這是目前實務上處理「表格資料 (Tabular Data)」效能最強大的家族。

核心概念對照:
技術說明核心機制
決策樹 (Decision Tree)透過資訊增益 (Information Gain) 或 Gini 指數切割資料。易過擬合,解釋性極佳。
隨機森林 (Random Forest)Bagging 策略。並行訓練多棵樹,最後投票決定。降低變異 (Variance),防止過擬合。
提升法 (Boosting)串行訓練。後一棵樹學習前一棵樹的 殘差 (Error)如 XGBoost, LightGBM, CatBoost。

三、 支持向量機 (SVM) 與 K-近鄰 (KNN)

3.1 支持向量機 (SVM)

原理: 尋找一個超平面 (Hyperplane),使兩類資料間的 間隔 (Margin) 最大化

關鍵字: 核函數 (Kernel Trick) — 將低維不可分資料投射到高維空間。適合小樣本、高維度資料。

3.2 K-近鄰演算法 (KNN)

原理: 惰性學習 (Lazy Learning)。預測時計算與鄰居的距離(如歐式距離),「近朱者赤」。

缺點: 計算量隨資料量增加而劇增,且受特徵量綱(單位)影響大(需做正規化)。

四、 無監督學習:分群與降維 探索性分析

當資料沒有標籤 (Label) 時使用的演算法。

K-Means 分群:
  1. 隨機初始化 K 個中心點。
  2. 將每個點分配給最近的中心。
  3. 重新計算中心點位置,直到收斂。

※ 注意:需事先指定 K 值,且對初始值敏感(常使用 K-Means++ 改善)。

4.2 主成分分析 (PCA)

原理: 線性降維。尋找資料變異最大的方向,將高維資料投影過去。目的:減少特徵數、去除雜訊、資料視覺化。

五、 演算法選擇情境對照表 決策必讀

應用情境建議演算法關鍵原因
預測房價、氣溫線性回歸、XGBoost (Regression)預測連續數值。
垃圾郵件、腫瘤辨識邏輯回歸、隨機森林、SVM二元分類任務。
電商客戶分眾K-Means, 層次聚類探索隱藏群體。
手寫文字、高維影像深度學習 (CNN)、SVM (Kernel)特徵極度複雜且非線性。
表格資料且求極致準度XGBoost / LightGBMBoosting 家族在結構化資料表現最優。

© iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

Read More »

iPAS 機器學習原理與技術 (ML Principles) 深度筆記

 

機器學習技術與應用 | 單元 4.1 核心主題解析

一、 機器學習的三大範式 必考核心

根據資料是否有「標籤 (Label)」以及與環境的互動方式,可分為以下三類:

類型資料特徵目標代表場景
監督式 (Supervised)有標籤 (Input + Label)學習對映函數 $y = f(x)$。房價預測、垃圾郵件分類。
無監督式 (Unsupervised)無標籤 (只有 Input)找出資料內在結構或分群。客戶分群、異常檢測。
強化學習 (Reinforcement)環境回饋 (Reward)學習在特定狀態下的最優決策。AlphaGo、自動駕駛。

二、 監督式學習經典演算法 高頻考點

規劃師需了解不同演算法的優缺點,以根據需求選擇模型。

2.1 線性回歸與邏輯回歸

  • 線性回歸 (Linear Regression): 預測「連續型」數值。
  • 邏輯回歸 (Logistic Regression): 雖然叫回歸,但用於「分類任務」。透過 Sigmoid 函數將輸出映射至 0~1。

2.2 支撐向量機 (SVM)

尋找一個最優超平面 (Hyperplane),使兩類資料間的 邊界 (Margin) 最大化。若資料線性不可分,可使用「核函數 (Kernel Trick)」映射到高維空間。

2.3 決策樹 (Decision Tree)

基於屬性測試的樹狀結構。優點是 具高度可解釋性。缺點是單一樹模型容易 過擬合 (Overfitting)

三、 無監督式學習與降維技術

在沒有標準答案的情況下,如何發現規律?

核心技術:
  • K-Means 分群: 將樣本分為 K 個簇,使簇內距離最小、簇間距離最大。須事先設定 K 值。
  • 主成分分析 (PCA): 透過線性代數變換,將高維特徵投影至低維度,並保留最大變異量。
  • 關聯規則 (Association Rules): 找出事件間的同時發生規律(如:尿布與啤酒)。

四、 模型評估指標與偏差-方差權衡 應試大熱點

如何判斷模型是好是壞?為什麼模型在訓練集很準,測試集卻很爛?

4.1 偏差 (Bias) vs 方差 (Variance)

  • 高偏差 (High Bias): 模型太簡單,「學不會」,導致 欠擬合 (Underfitting)
  • 高方差 (High Variance): 模型太複雜,「背死書」,導致 過擬合 (Overfitting)
分類任務評估指標 (混淆矩陣):
  • 準確率 (Accuracy): 答對的比例(樣本不平衡時不適用)。
  • 精確率 (Precision): 預測為正樣本中,真正為正的比例(防錯殺)。
  • 召回率 (Recall): 實際為正樣本中,被預測出來的比例(防漏抓)。
  • F1-Score: 精確率與召回率的調和平均(綜合指標)。

五、 集成學習 (Ensemble Learning) 效能巔峰

「團結力量大」,結合多個弱學習器來構建一個強學習器。

  • Bagging (自助聚合): 並行訓練多個模型,最後投票或平均。代表:隨機森林 (Random Forest)。優點:降低方差,防止過擬合。
  • Boosting (提升法): 串行訓練,後面的模型專注於修正前面模型的錯誤。代表:XGBoost, LightGBM。優點:大幅降低偏差,效能極佳。

© iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」單元 4.1

Read More »

iPAS 數值優化技術 (Numerical Optimization) 深度筆記

 

機器學習技術與應用 | 單元 3.3 核心主題解析

一、 優化的核心:損失函數與目標 必考定義

機器學習的過程本質上是在 「尋找一組參數 $w$,使得損失函數 $L(w)$ 達到最小值」。優化技術就是指引模型如何調整參數的方法。

1.1 常見損失函數 (Loss Functions)

  • 均方誤差 (MSE): 常用於「回歸任務」。計算預測值與實際值之差的平方平均。
  • 交叉熵 (Cross-Entropy): 常用於「分類任務」。衡量兩個機率分佈的差異,數值越小代表預測越準。
凸函數 (Convex Function) 的物理意義:

若損失函數是「凸」的,則 局部最小值 (Local Minimum) 就是全局最小值 (Global Minimum),優化過程最為簡單。非凸函數(如深度神經網路)則容易陷入局部陷阱。

二、 梯度下降法 (Gradient Descent) 高頻考點

梯度代表函數上升最快的方向,因此「負梯度」方向就是下山最快的方向。

權重更新公式:
$w_{new} = w_{old} - \eta \cdot \nabla L(w)$
(其中 $\eta$ 為學習率,$\nabla L(w)$ 為梯度)

2.1 三種梯度下降策略比較

  • MBGD (小批量)
  • 策略說明優點缺點
    BGD (批量)使用「全量」資料計算梯度。路徑穩定,保證收斂。資料量大時計算極慢,記憶體溢出。
    SGD (隨機)隨機挑選「1 筆」資料計算。計算速度極快。路徑非常震盪,難以精確收斂。
    挑選「一小群 (Batch)」資料。工業界標準。兼顧穩定性與速度。需額外調整 Batch Size。

    三、 優化器進化:從 SGD 到 Adam 演算法進階

    為了克服基本 SGD 的收斂速度慢與震盪問題,科學家發展了多種進階優化器。

    • 動量法 (Momentum): 模擬物理動量,保留先前的更新趨勢。優點:加速通過平坦區,抑制震盪。
    • AdaGrad: 「自適應」調整學習率。頻繁更新的參數學習率調低,稀疏參數調高。缺點:後期學習率趨於 0,導致訓練停止。
    • RMSProp: 解決 AdaGrad 學習率遞減過快的問題,只參考近期的梯度大小。
    • Adam: 目前最主流優化器。結合了「動量」與「自適應學習率」的優點。

    四、 學習率 (Learning Rate, $\eta$) 的影響

    學習率是 AI 訓練中最關鍵的「超參數 (Hyperparameter)」。

    學習率設置情境:
    • 學習率過大: 跨步過猛,會導致在最小值附近 震盪甚至發散,無法收斂。
    • 學習率過小: 步履蹣跚,訓練 速度極慢,且容易陷入局部最小值。
    • 學習率調度 (Scheduler): 訓練初期大、後期小,是一種常見的優化策略。

    五、 正則化與防止過擬合 應試大熱點

    數值優化不僅要讓 Loss 變小,還要確保模型在測試集(未知資料)表現良好。

    5.1 過擬合 (Overfitting) vs. 欠擬合 (Underfitting)

    • 過擬合: 訓練 Loss 極低,測試 Loss 極高。模型「背死書」。
    • 欠擬合: 訓練與測試 Loss 都很高。模型「學不會」。
    正則化 (Regularization) 手段:
    • L1 正則化 (Lasso): 增加絕對值權重懲罰。會產生「稀疏性」,起到 特徵選擇 的作用。
    • L2 正則化 (Ridge): 增加平方權重懲罰。讓權重趨近於小數值,減少單一特徵的主導權,增加模型穩定性。
    • 早停法 (Early Stopping): 當驗證集 Loss 開始上升時即停止訓練。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

    Read More »

    iPAS 線性代數基礎 (Linear Algebra) 深度筆記

     

    機器學習技術與應用 | 單元 3.2 核心主題解析

    一、 資料的幾何表示:向量與張量 必考定義

    在 AI 中,資料不再是單一數字,而是存在於多維空間中的點或方向。

    1.1 張量 (Tensor) 的層級

    • 純量 (Scalar): 0 維,單一數值(如:氣溫)。
    • 向量 (Vector): 1 維,一組數值。在 AI 中代表「特徵向量」。
    • 矩陣 (Matrix): 2 維,資料表形式。代表「樣本集」或「模型權重」。
    • 張量 (Tensor): 3 維以上。如:彩色影像(寬 × 高 × RGB 三通道)。
    餘弦相似度 (Cosine Similarity):

    透過向量的內積 (Dot Product) 計算兩個向量夾角的餘弦值。常用於 NLP 文字語義相似度。夾角越小,餘弦值越接近 1,代表越相似。

    二、 矩陣運算與線性轉換

    矩陣乘法 $Ax = b$ 在機器學習中具有強烈的物理意義:將向量 $x$ 從一個空間「轉換」到另一個空間。

    2.1 關鍵運算與性質

    • 轉置矩陣 (Transpose): 行列互換 ($A^T$)。常用於計算協方差矩陣。
    • 逆矩陣 (Inverse): 若 $A \cdot A^{-1} = I$,代表該轉換可逆。若行列式 (Det) 為 0,則矩陣不可逆(奇異矩陣)。
    • 矩陣乘法: 深度學習中神經元的神經傳導本質就是「矩陣(權重)與向量(輸入)的乘法」。

    三、 特徵值與特徵向量 (Eigenvalues & Eigenvectors) 演算法靈魂

    當一個矩陣 $A$ 作用於特徵向量 $v$ 時,$v$ 的方向不變,僅長度縮放了 $\lambda$ 倍。

    特徵方程式:
    $Av = \lambda v$
    為什麼特徵值重要?

    在資料分析中,最大的特徵值 對應的方向代表了資料 變異量 (Variance) 最大 的方向。這就是找出資料主要特徵(主成分)的數學依據。

    四、 矩陣分解技術 (SVD)

    奇異值分解 (Singular Value Decomposition) 是將複雜矩陣拆解為三個簡單矩陣乘積的過程。

    4.1 SVD 的應用

    • 推薦系統: 將「用戶-電影」矩陣分解,找出隱藏的偏好特徵(隱含語義分析)。
    • 影像壓縮: 只保留較大的奇異值,剔除細微噪訊,達成壓縮效果。
    • 穩定性: 與特徵分解不同,SVD 適用於任何形狀(非方陣)的矩陣。

    五、 降維技術的數學基礎 (PCA) 高頻考點

    主成分分析 (Principal Component Analysis) 是線性代數在 AI 中最直接的應用。

    PCA 的計算流程(邏輯理解):
    1. 中心化: 將資料減去平均值,使重心位於原點。
    2. 協方差矩陣: 計算各特徵間的相關性。
    3. 特徵分解: 找出協方差矩陣的特徵向量。
    4. 投影: 將資料投影到前 $k$ 個特徵向量(主成分)上。

    ※ 目的:減少特徵數量、消除雜訊、解決多元共線性問題。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

    Read More »

    iPAS 機率與統計基礎 (Prob & Stats) 深度筆記

     

    機器學習技術與應用 | 單元 3.1 核心主題解析

    一、 描述性統計:資料的縮影 必考基礎

    描述性統計是用簡單的數值來概括大量資料的特徵,主要分為「集中趨勢」與「離散程度」。

    1.1 集中趨勢 (Central Tendency)

    • 平均數 (Mean): 所有資料總和除以個數。容易受極端值影響。
    • 中位數 (Median): 資料排序後的中點。對極端值較具魯棒性 (Robust)。
    • 眾數 (Mode): 出現頻率最高的值。適用於類別型資料。

    1.2 離散程度 (Dispersion)

    • 變異數 (Variance): 資料與平均值差異平方的平均。
    • 標準差 (Standard Deviation): 變異數的平方根,單位與原始資料一致。
    • 四分位距 (IQR): $Q3 - Q1$,用來識別異常值的基礎指標(通常大於 $1.5 \times IQR$ 為異常)。

    二、 條件機率與貝氏定理 邏輯核心

    貝氏定理是機器學習中「生成式模型」的基礎,用於在已知某些證據的情況下,更新對某一事件發生的信心。

    貝氏定理公式:
    $P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}$
    關鍵術語解析:
    • 事前機率 (Prior): $P(A)$,在看到證據前的信念。
    • 似然值 (Likelihood): $P(B|A)$,假設 $A$ 成立下,看到證據 $B$ 的機率。
    • 事後機率 (Posterior): $P(A|B)$,看到證據 $B$ 後,修正對 $A$ 的信念。

    ※ 應試提醒:單純貝氏 (Naive Bayes) 分類器假設特徵之間「彼此獨立」,以簡化運算。

    三、 常用機率分佈與應用場景

    選擇正確的分佈模型是規劃 AI 應用的第一步。

    分佈名稱特徵/情境AI 應用範例
    白努利分佈 (Bernoulli)單次實驗,只有兩種結果 (0/1)。預測單個廣告是否被點擊。
    二項分佈 (Binomial)$n$ 次獨立實驗中的成功次數。預測 100 個零件中有幾個瑕疵品。
    常態分佈 (Normal/Gaussian)自然界最常見,呈鐘形曲線。大多數模型的殘差假設、特徵標準化。
    卜瓦松分佈 (Poisson)單位時間/空間內事件發生次數。預測每小時進入商店的客流量。

    四、 統計推論:估計與檢定

    AI 不只是擬合模型,還需要驗證結果是否具有「統計顯著性」。

    4.1 最大似然估計 (MLE)

    尋找一組參數,使得觀察到的資料出現機率最大。這是許多機器學習演算法(如邏輯回歸)尋找權重的原理。

    假設檢定 (Hypothesis Testing):
    • 虛無假設 ($H_0$): 通常假設「沒有差異」或「效果為零」。
    • P-值 (P-value): 若 $P < 0.05$,代表在 $H_0$ 成立下看到此結果的機率極低,故「拒絕 $H_0$」,承認具有顯著性。

    五、 機器學習中的機率應用 整合考點

    如何將上述數學連結到實際的模型開發?

    • 損失函數 (Loss Functions): 邏輯回歸使用的 Cross-Entropy 本質上源自資訊理論與機率對數。
    • 機率輸出: 分類模型(如 Softmax)輸出的通常是屬於各類別的機率分佈,而非硬性標籤。
    • 正規化與機率: L1/L2 正規化可以被解釋為給予權重不同的「事前分佈」(Prior)。

    © iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

    Read More »
    >