(01)
GenAI vs 搜尋引擎:本質差異
大多數人第一次接觸 AI 時,把它理解為「更強的 Google」——這個類比在 95% 的時候會讓你答錯題目。兩者從設計目標就截然不同:
搜尋引擎(如 Google)
索引既有內容,返回清單連結
總是清楚標示來源網址
輸出是「已存在的網頁」
結果具有確定性(相同關鍵字 → 相同結果)
生成式 AI(如 ChatGPT)
根據提示詞「生成」全新內容
不一定標示來源,可能編造
輸出是「世界上不存在的新內容」
結果具有隨機性(相同提示 → 可能不同輸出)
考試常考:「能夠生成在任何網站上都找不到的材料」→ GenAI;「總是清楚說明資訊在網路上的來源」→ 搜尋引擎。這個對比是 Q12 的核心考點。
(02)
AI 類型分類:選對工具的關鍵
CCS 考試大量使用「情境 → 選工具」的題型。你需要知道每種 AI 類型的用途,才能在題目中快速判斷。
(01)
生成式 AI(Generative AI)
從無到有創造新內容。文字、圖像、語音、影片皆可。ChatGPT、DALL-E、Midjourney、Stable Diffusion。考試情境:寫文案、畫圖、作曲、創作。
(02)
預測式 AI(Predictive AI)
分析歷史資料預估未來趨勢。不「創作」,而是「預測」。考試情境:預測 2200 年地球溫度、銷售預測、需求預估(Q2)。
(03)
鑑別式 AI(Discriminative AI)
分類與識別。給定一個輸入,判斷它屬於哪個類別。考試情境:垃圾郵件過濾、圖片分類(貓/狗)、詐騙偵測。
(04)
擴散式模型(Diffusion)
圖像生成的底層技術。從雜訊中逐步去噪,生成圖像。Stable Diffusion、DALL-E 使用此架構。注意:考試不用它來「分析文字」。
(05)
Transformer 架構
現代 LLM(GPT、Gemini、Claude)的基礎。自注意力機制能捕捉長距離文字關聯。考試情境:融合莎士比亞與羅琳風格 → 需要 Transformer(Q7)。
(06)
卷積神經網路(CNN)
專門用於影像辨識與分類,不用來生成文字或做語言任務。考試情境:幾乎只出現在「這個選項為什麼錯」。
(03)
LLM 訓練流程:理論順序 vs 實務順序
這是 Q3 的直接考點,也是最容易在直覺上答錯的題目。問的是「理論上」的設計順序,而非「實務上」數據科學家的工作順序:
LLM 訓練——理論設計順序(Q3 答案:4 → 3 → 2 → 1)
4. 微調超參數
設定 Learning Rate、Batch Size 等架構參數
→
3. 準備輸入架構
定義模型如何接收數據
→
2. 預處理清理
移除雜訊、標準化格式
→
1. 收集資料集
灌入訓練數據
為什麼是反直覺的順序?從「系統架構設計」的角度,必須先決定機器要怎麼跑(超參數),再決定輸入格式,然後才清理資料,最後才灌入。這是「設計先於資料」的邏輯,考的是模型開發的理論視角。
(04)
GenAI 的輸出模態:多模態全景
現代生成式 AI 不只輸出文字。理解「輸入 × 輸出」的組合矩陣,才能在 Q4、Q5、Q14、Q15 等題型中快速判斷。
常考場景:
Q4:作家想測試電影劇本不同口音效果 → Text-to-Speech(TTS)
Q15:歌手提交原創錄音,要求加入失真效果 → Speech-to-Speech(S2S)
Q14:廣告商提供文件+圖片+文字要求寫歌詞 → 多模態輸入(文件+圖像+文字)
Q4:作家想測試電影劇本不同口音效果 → Text-to-Speech(TTS)
Q15:歌手提交原創錄音,要求加入失真效果 → Speech-to-Speech(S2S)
Q14:廣告商提供文件+圖片+文字要求寫歌詞 → 多模態輸入(文件+圖像+文字)
(05)
GenAI 的核心特性與局限性
了解 GenAI「能做什麼」很重要,但了解「不能做什麼」在考試中更常出現:
生成式 AI 的底層邏輯是「機率預測」——它不是「理解了真理」,而是根據前文計算下一個詞的機率,做出機率性的選擇。
GenAI 的核心特性
機率生成:每次輸出都是機率抽樣,相同提示可能產生不同結果
可重新訓練:透過 Fine-tuning 或 RLHF 對齊人類偏好
情境學習:在提示詞中提供範例,模型即時適應任務
多模態能力:同時處理文字、圖像、語音等不同類型輸入
GenAI 的核心局限
幻覺(Hallucination):一本正經地捏造事實,輸出必須查核
訓練資料截止:不知道截止日期後發生的事
隱私風險:輸入的機密資料可能被用於訓練
否定指令困難:「不要出現紅色」有時反而讓 AI 聚焦在紅色上
考試重點:Q10、Q11、Q19 都圍繞「局限性」出題。記住:AI 無法從沒看過的資料中生成機密、不能直接執行程式(只能輸出程式碼)、不能修改系統層級的檔案中繼資料(Metadata)。
(06)
圖像生成原理:潛在擴散模型流程
Q13 考的是圖像生成的標準流程。潛在擴散模型(Latent Diffusion Model)的步驟順序是 2 → 1 → 3 → 4:
圖像生成——潛在擴散模型流程(Q13 答案:2 → 1 → 3 → 4)
2. 分詞(Tokenization)
將文字轉化為向量,理解「檯燈」「桌子」的含義
→
1. 雜訊生成
在潛在空間投射隨機像素值
→
3. 擴散去噪
預測並剔除雜訊,讓圖像特徵浮現
→
4. 優化輸出
解碼器生成最終高清圖像