AI 不是神,它只是一個很會說話、偶爾會瞎掰的實習生。

先講結論

把 AI 當成一個很會說話但偶爾瞎掰的實習生——它產出的東西永遠要人工確認。搞懂它的限制不是要你不用它,而是讓你用對地方、用對方式,避免踩到那些看起來很靠譜但其實完全錯誤的坑。


限制一:幻覺(Hallucination)——一本正經地胡說八道

這是 AI 最危險的特性:它會用非常自信的語氣告訴你完全錯誤的事情。

舉個真實案例:有人問 ChatGPT「推薦幾本關於專案管理的書」,它推薦了五本,其中兩本根本不存在——書名是它自己編的,連作者名字都是捏造的。但它講得頭頭是道,還附上「本書的核心觀點是⋯⋯」。

為什麼會這樣?因為 AI 的運作方式是預測下一個字最可能是什麼,不是去資料庫裡查事實。它讀過很多書評,學會了「書評長什麼樣子」,所以它能寫出很像書評的東西——即使那本書不存在。

怎麼避免

  • 可以查證的事實,一定要查:人名、書名、數據、法規、歷史事件
  • 要求它附上來源:雖然它有時候連來源都會編,但至少你可以去查
  • 把它當初稿,不是定稿:它幫你起頭,你負責驗收

限制二:時效性——它不知道昨天發生了什麼

每個 AI 模型都有一個訓練資料截止日期。在那之後發生的事,它完全不知道。

狀況會發生什麼
問它今天的天氣它會說「我無法查詢即時資訊」或直接瞎猜
問它最新的 iPhone 型號可能回答到它訓練時的版本
問它昨天的新聞完全不知道
問它某家公司現在的股價無法回答或給過期資訊

有些 AI 工具(像 ChatGPT 的付費版、Gemini)有聯網搜尋功能,可以在回答時即時搜尋網路。但即使有這個功能,它搜到的結果也不一定正確——網路上本來就有很多錯誤資訊。

怎麼避免

  • 需要即時資訊的事,自己查:股價、天氣、最新法規
  • 問它的時候,確認它知道自己的截止日期:「你的訓練資料到什麼時候?」
  • 分辨「常識」和「時事」:問它牛頓三大定律沒問題,問它上個月的匯率就不行

限制三:數學和邏輯——它在「說話」,不是在「算數」

這一點很反直覺:一個看起來這麼聰明的 AI,居然連簡單的數學都會算錯?

沒錯,它真的會。原因是 AI 處理數學的方式跟計算機完全不一樣。計算機是用電路做加減乘除,但 LLM 是在「預測下一個最可能出現的 token」。

舉例來說,你問它「17 x 24 = ?」,它不是在算,而是在想「在我讀過的文字裡,17 x 24 後面最常出現的數字是什麼」。大部分時候它猜對了,但複雜一點的算式就容易出錯。

它容易出錯的邏輯場景

  • 多步驟推理:A 比 B 高,B 比 C 高,C 比 D 高⋯⋯到第五層就容易亂
  • 反直覺問題:「所有的狗都是動物,但不是所有的動物都是狗」這種他其實懂,但更繞的邏輯題就不一定
  • 計數:問它一個句子裡有幾個字母「r」,它經常數錯

怎麼避免

  • 數學交給計算機:Excel、Google Sheets、甚至手機計算機都比 AI 準
  • 邏輯推理自己驗:尤其是跟錢有關的計算,千萬別直接用它的答案
  • 讓它「一步一步想」:加上「請一步一步推理」有時能改善,但不是萬靈丹

限制四:一致性——同樣的問題,不同的答案

你問 AI 同一個問題兩次,很可能拿到不一樣的答案。這不是 bug,是它的設計。

AI 在生成回答時有一個叫做 temperature 的參數,控制「回答的隨機程度」。temperature 越高,答案越多樣(但也越不穩定);越低,答案越一致(但也越無聊)。

這代表什麼?

  • 你昨天得到的好答案,今天可能複製不出來
  • 同事用同樣的問法,可能得到完全不同的建議
  • 它不記得上一次的對話(除非在同一個對話串裡)

怎麼避免

  • 好的 prompt 存起來:找到有效的問法就記錄下來
  • 重要的回答截圖或複製:因為你下次問可能不一樣了
  • 不要把它當成「標準答案產生器」:它更像是「靈感提供者」

限制五:它不是真的「懂」你

AI 做的事情本質上是模式匹配——它讀過大量人類寫的文字,學會了「什麼字後面通常接什麼字」。它能產出看起來像是理解的回答,但它並不是真的「懂」。

一個簡單的測試:你跟 AI 說「我今天心情很差」,它會回你「很抱歉聽到你心情不好,要不要跟我聊聊?」看起來很貼心,但它不是真的關心你——它只是學到了「當有人說心情差的時候,回這樣的話最恰當」。

這不是說 AI 的回應沒有價值,但你要知道:

  • 它沒有個人經驗:它的建議來自統計,不是來自親身體會
  • 它沒有立場:問它「A 和 B 哪個好」,它會兩邊都說好(除非你逼它選)
  • 它沒有常識的「直覺」:人類覺得理所當然的事,它有時候會搞錯

限制六:隱私——你餵進去的東西,可能被看到

這一點很多人忽略:你輸入到 AI 的內容,可能會被用來訓練下一代模型。

AI 工具免費版是否用你的資料訓練付費版呢
ChatGPT預設會(可以關閉)不會
Claude預設不會不會
Gemini預設會看方案
Copilot看版本企業版不會

怎麼保護自己

  • 機密文件不要直接貼上去:公司財報、客戶名單、個人身分資料
  • 用完即棄的資料可以放心用:公開資訊、練習用的假資料
  • 公司有 AI 使用政策就遵守:越來越多公司有規定哪些資料可以餵 AI
  • 敏感資料要脫敏:把姓名、金額、公司名改成假的,再餵給 AI

所以 AI 到底能不能信?

能信,但有條件:

情境信任程度說明
幫你起草文字★★★★☆很好用,但要自己改過
整理和摘要★★★★☆大方向沒問題,細節偶爾漏
翻譯★★★★☆日常夠用,正式文件要人工校
查事實★★☆☆☆一定要自己驗證
做數學★★☆☆☆簡單的可以,複雜的別信
給人生建議★★☆☆☆當參考就好
當搜尋引擎用★★★☆☆方向對,細節要查

一句話總結:AI 是你的助手,不是你的老闆。它給你的東西是初稿,不是定稿。養成「AI 產出 → 人工確認」的習慣,你就能用得又快又安全。


系列導覽