人工智慧技術應用規劃 | 單元 3.3 核心主題解析
一、 生成式 AI 基礎定義
生成式 AI (GenAI) 是人工智慧的一支,旨在 創造新內容 (如文本、影像、音訊、程式碼),而非僅僅對既有資料進行分類或預測。
- 判別式模型 (Discriminative): 學習邊界,$P(y|x)$,用於分類 (如:這是不是貓?)。
- 生成式模型 (Generative): 學習分布,$P(x,y)$ 或 $P(x)$,用於創造 (如:畫出一隻貓)。
二、 核心模型架構對比 必考核心
理解不同生成技術的運作邏輯是考試的基礎。
| 模型類別 | 運作邏輯 | 應考關鍵字 |
|---|---|---|
| GAN (對抗網路) | 生成器 (G) 與判別器 (D) 互相博弈 | 零和遊戲、容易訓練不穩 |
| VAE (變分自編碼器) | 將資料壓縮至潛在空間 (Latent) 再還原 | 機率分布、生成圖像較模糊 |
| Diffusion (擴散模型) | 透過逐步「加噪」與「去噪」過程生成 | Stable Diffusion、逐步推論 |
| Transformer | 基於注意力機制處理序列資料 | GPT、平行運算、長距離依賴 |
GAN 的組成細節:
- 生成器 (Generator): 負責製造假資料騙過判別器。
- 判別器 (Discriminator): 負責區分真資料與假資料。
- 平衡: 當判別器無法區分真假 (準率約 0.5) 時,代表模型訓練接近理想。
三、 LLM 關鍵技術與微調 (Fine-tuning)
大型語言模型 (LLM) 的效能不僅來自參數量,更來自於精煉過程。
3.1 RLHF (基於人類回饋的強化學習)
這是讓 AI 變得「聽話」且「安全」的關鍵步驟。
- 預訓練 (Pre-training): 學習海量知識。
- SFT (監督式微調): 人類示範如何回答。
- 獎勵模型訓練: 人類對 AI 的多個回答進行排序。
- PPO 優化: 透過強化學習,讓模型傾向於獲得高分的回答。
3.2 參數高效微調 (PEFT)
LoRA (低秩自適應)
凍結原模型權重,僅外掛微小矩陣進行訓練。特點:節省 VRAM、部署快。
P-Tuning / Prompt Tuning
不改模型參數,而是學習一組「虛擬提示」的 Embedding 向量。特點:適用於跨任務部署。
四、 提示工程 (Prompt Engineering) 中級鑑別點
如何透過優化輸入 (Prompt) 來獲得更好的輸出結果。
- Zero-shot: 不給範例,直接下指令。
- Few-shot: 給予少數幾個範例 (In-context learning)。
- CoT (思維鏈): 要求 AI 「一步一步思考」。顯著提升邏輯推理與數學題表現。
- RAG (檢測增強生成): 模型生成前先去「查書」(外部知識庫),解決 幻覺 (Hallucination) 與時效性問題。
LLM 幻覺 (Hallucination):
指模型生成看似正確但事實錯誤的資訊。解決策略:RAG (外部搜尋)、設定更高的 Top-P/降低 Temperature、或是使用更強的模型。
五、 偏見、倫理與負面影響
iPAS 規劃師考試強調應用的安全性與合規性。
- 偏見 (Bias): 來源於訓練資料的分布不均 (如性別、種族偏見)。
- 版權問題: 生成內容是否侵犯原作者智慧財產權。
- Deepfake: 利用生成技術製造假影像、假音訊進行詐騙或誤導。
- 安全護欄 (Guardrails): 確保 AI 不會回答有害、暴力或違法內容。
沒有留言:
張貼留言