AI 不是神,它只是一個很會說話、偶爾會瞎掰的實習生。
先講結論
把 AI 當成一個很會說話但偶爾瞎掰的實習生——它產出的東西永遠要人工確認。搞懂它的限制不是要你不用它,而是讓你用對地方、用對方式,避免踩到那些看起來很靠譜但其實完全錯誤的坑。
限制一:幻覺(Hallucination)——一本正經地胡說八道
這是 AI 最危險的特性:它會用非常自信的語氣告訴你完全錯誤的事情。
舉個真實案例:有人問 ChatGPT「推薦幾本關於專案管理的書」,它推薦了五本,其中兩本根本不存在——書名是它自己編的,連作者名字都是捏造的。但它講得頭頭是道,還附上「本書的核心觀點是⋯⋯」。
為什麼會這樣?因為 AI 的運作方式是預測下一個字最可能是什麼,不是去資料庫裡查事實。它讀過很多書評,學會了「書評長什麼樣子」,所以它能寫出很像書評的東西——即使那本書不存在。
怎麼避免
- 可以查證的事實,一定要查:人名、書名、數據、法規、歷史事件
- 要求它附上來源:雖然它有時候連來源都會編,但至少你可以去查
- 把它當初稿,不是定稿:它幫你起頭,你負責驗收
限制二:時效性——它不知道昨天發生了什麼
每個 AI 模型都有一個訓練資料截止日期。在那之後發生的事,它完全不知道。
| 狀況 | 會發生什麼 |
|---|---|
| 問它今天的天氣 | 它會說「我無法查詢即時資訊」或直接瞎猜 |
| 問它最新的 iPhone 型號 | 可能回答到它訓練時的版本 |
| 問它昨天的新聞 | 完全不知道 |
| 問它某家公司現在的股價 | 無法回答或給過期資訊 |
有些 AI 工具(像 ChatGPT 的付費版、Gemini)有聯網搜尋功能,可以在回答時即時搜尋網路。但即使有這個功能,它搜到的結果也不一定正確——網路上本來就有很多錯誤資訊。
怎麼避免
- 需要即時資訊的事,自己查:股價、天氣、最新法規
- 問它的時候,確認它知道自己的截止日期:「你的訓練資料到什麼時候?」
- 分辨「常識」和「時事」:問它牛頓三大定律沒問題,問它上個月的匯率就不行
限制三:數學和邏輯——它在「說話」,不是在「算數」
這一點很反直覺:一個看起來這麼聰明的 AI,居然連簡單的數學都會算錯?
沒錯,它真的會。原因是 AI 處理數學的方式跟計算機完全不一樣。計算機是用電路做加減乘除,但 LLM 是在「預測下一個最可能出現的 token」。
舉例來說,你問它「17 x 24 = ?」,它不是在算,而是在想「在我讀過的文字裡,17 x 24 後面最常出現的數字是什麼」。大部分時候它猜對了,但複雜一點的算式就容易出錯。
它容易出錯的邏輯場景
- 多步驟推理:A 比 B 高,B 比 C 高,C 比 D 高⋯⋯到第五層就容易亂
- 反直覺問題:「所有的狗都是動物,但不是所有的動物都是狗」這種他其實懂,但更繞的邏輯題就不一定
- 計數:問它一個句子裡有幾個字母「r」,它經常數錯
怎麼避免
- 數學交給計算機:Excel、Google Sheets、甚至手機計算機都比 AI 準
- 邏輯推理自己驗:尤其是跟錢有關的計算,千萬別直接用它的答案
- 讓它「一步一步想」:加上「請一步一步推理」有時能改善,但不是萬靈丹
限制四:一致性——同樣的問題,不同的答案
你問 AI 同一個問題兩次,很可能拿到不一樣的答案。這不是 bug,是它的設計。
AI 在生成回答時有一個叫做 temperature 的參數,控制「回答的隨機程度」。temperature 越高,答案越多樣(但也越不穩定);越低,答案越一致(但也越無聊)。
這代表什麼?
- 你昨天得到的好答案,今天可能複製不出來
- 同事用同樣的問法,可能得到完全不同的建議
- 它不記得上一次的對話(除非在同一個對話串裡)
怎麼避免
- 好的 prompt 存起來:找到有效的問法就記錄下來
- 重要的回答截圖或複製:因為你下次問可能不一樣了
- 不要把它當成「標準答案產生器」:它更像是「靈感提供者」
限制五:它不是真的「懂」你
AI 做的事情本質上是模式匹配——它讀過大量人類寫的文字,學會了「什麼字後面通常接什麼字」。它能產出看起來像是理解的回答,但它並不是真的「懂」。
一個簡單的測試:你跟 AI 說「我今天心情很差」,它會回你「很抱歉聽到你心情不好,要不要跟我聊聊?」看起來很貼心,但它不是真的關心你——它只是學到了「當有人說心情差的時候,回這樣的話最恰當」。
這不是說 AI 的回應沒有價值,但你要知道:
- 它沒有個人經驗:它的建議來自統計,不是來自親身體會
- 它沒有立場:問它「A 和 B 哪個好」,它會兩邊都說好(除非你逼它選)
- 它沒有常識的「直覺」:人類覺得理所當然的事,它有時候會搞錯
限制六:隱私——你餵進去的東西,可能被看到
這一點很多人忽略:你輸入到 AI 的內容,可能會被用來訓練下一代模型。
| AI 工具 | 免費版是否用你的資料訓練 | 付費版呢 |
|---|---|---|
| ChatGPT | 預設會(可以關閉) | 不會 |
| Claude | 預設不會 | 不會 |
| Gemini | 預設會 | 看方案 |
| Copilot | 看版本 | 企業版不會 |
怎麼保護自己
- 機密文件不要直接貼上去:公司財報、客戶名單、個人身分資料
- 用完即棄的資料可以放心用:公開資訊、練習用的假資料
- 公司有 AI 使用政策就遵守:越來越多公司有規定哪些資料可以餵 AI
- 敏感資料要脫敏:把姓名、金額、公司名改成假的,再餵給 AI
所以 AI 到底能不能信?
能信,但有條件:
| 情境 | 信任程度 | 說明 |
|---|---|---|
| 幫你起草文字 | ★★★★☆ | 很好用,但要自己改過 |
| 整理和摘要 | ★★★★☆ | 大方向沒問題,細節偶爾漏 |
| 翻譯 | ★★★★☆ | 日常夠用,正式文件要人工校 |
| 查事實 | ★★☆☆☆ | 一定要自己驗證 |
| 做數學 | ★★☆☆☆ | 簡單的可以,複雜的別信 |
| 給人生建議 | ★★☆☆☆ | 當參考就好 |
| 當搜尋引擎用 | ★★★☆☆ | 方向對,細節要查 |
一句話總結:AI 是你的助手,不是你的老闆。它給你的東西是初稿,不是定稿。養成「AI 產出 → 人工確認」的習慣,你就能用得又快又安全。