iPAS 線性代數基礎 (Linear Algebra) 深度筆記

 

機器學習技術與應用 | 單元 3.2 核心主題解析

一、 資料的幾何表示:向量與張量 必考定義

在 AI 中,資料不再是單一數字,而是存在於多維空間中的點或方向。

1.1 張量 (Tensor) 的層級

  • 純量 (Scalar): 0 維,單一數值(如:氣溫)。
  • 向量 (Vector): 1 維,一組數值。在 AI 中代表「特徵向量」。
  • 矩陣 (Matrix): 2 維,資料表形式。代表「樣本集」或「模型權重」。
  • 張量 (Tensor): 3 維以上。如:彩色影像(寬 × 高 × RGB 三通道)。
餘弦相似度 (Cosine Similarity):

透過向量的內積 (Dot Product) 計算兩個向量夾角的餘弦值。常用於 NLP 文字語義相似度。夾角越小,餘弦值越接近 1,代表越相似。

二、 矩陣運算與線性轉換

矩陣乘法 $Ax = b$ 在機器學習中具有強烈的物理意義:將向量 $x$ 從一個空間「轉換」到另一個空間。

2.1 關鍵運算與性質

  • 轉置矩陣 (Transpose): 行列互換 ($A^T$)。常用於計算協方差矩陣。
  • 逆矩陣 (Inverse): 若 $A \cdot A^{-1} = I$,代表該轉換可逆。若行列式 (Det) 為 0,則矩陣不可逆(奇異矩陣)。
  • 矩陣乘法: 深度學習中神經元的神經傳導本質就是「矩陣(權重)與向量(輸入)的乘法」。

三、 特徵值與特徵向量 (Eigenvalues & Eigenvectors) 演算法靈魂

當一個矩陣 $A$ 作用於特徵向量 $v$ 時,$v$ 的方向不變,僅長度縮放了 $\lambda$ 倍。

特徵方程式:
$Av = \lambda v$
為什麼特徵值重要?

在資料分析中,最大的特徵值 對應的方向代表了資料 變異量 (Variance) 最大 的方向。這就是找出資料主要特徵(主成分)的數學依據。

四、 矩陣分解技術 (SVD)

奇異值分解 (Singular Value Decomposition) 是將複雜矩陣拆解為三個簡單矩陣乘積的過程。

4.1 SVD 的應用

  • 推薦系統: 將「用戶-電影」矩陣分解,找出隱藏的偏好特徵(隱含語義分析)。
  • 影像壓縮: 只保留較大的奇異值,剔除細微噪訊,達成壓縮效果。
  • 穩定性: 與特徵分解不同,SVD 適用於任何形狀(非方陣)的矩陣。

五、 降維技術的數學基礎 (PCA) 高頻考點

主成分分析 (Principal Component Analysis) 是線性代數在 AI 中最直接的應用。

PCA 的計算流程(邏輯理解):
  1. 中心化: 將資料減去平均值,使重心位於原點。
  2. 協方差矩陣: 計算各特徵間的相關性。
  3. 特徵分解: 找出協方差矩陣的特徵向量。
  4. 投影: 將資料投影到前 $k$ 個特徵向量(主成分)上。

※ 目的:減少特徵數量、消除雜訊、解決多元共線性問題。

© iPAS AI 應用規劃師應考筆記系列 | 本內容參照科目三「機器學習技術與應用」學習指引

沒有留言:

張貼留言

>