你把公司的合約內容貼進 ChatGPT 的那一刻,那份合約可能就不再只屬於你公司了。

先講結論

免費版的 AI 工具=你的資料可能被拿去訓練。想安全就用企業方案或自架。但就算用付費版,有些東西——密碼、身分證號、信用卡號——任何版本都不該丟進去。這不是技術問題,是常識問題。花 5 分鐘搞懂這篇的內容,可以幫你避開一堆麻煩。


你輸入的東西去哪了?

很多人以為跟 AI 聊天就像跟朋友傳 LINE——講完就沒了。不是的。你輸入的每一個字,都可能經歷以下流程:

你輸入文字 → 傳到 AI 公司的伺服器 → 被記錄在 log 裡
                                    → 可能被用來改善模型(訓練資料)
                                    → 可能被內部人員審查(品質控管)

不同工具的資料處理方式不一樣,這是你需要搞清楚的:

工具免費版資料處理付費/企業版
ChatGPT(OpenAI)預設會用於模型訓練(可以關掉)Team/Enterprise 版不用於訓練
Claude(Anthropic)免費版可能用於改善服務Pro 版以上有較嚴格的資料政策
Gemini(Google)可能用於改善產品Workspace 版有企業級隱私保護
Copilot(Microsoft)依據 Microsoft 隱私條款企業版資料不外流

重點:「不用於訓練」不等於「完全不留記錄」。就算是付費版,AI 公司的伺服器上通常還是會有對話紀錄,只是不拿去訓練而已。


絕對不要餵給 AI 的東西

這些東西無論你用什麼版本、什麼平台,都不該丟進去

紅線清單

類別範例為什麼不行
密碼和憑證登入密碼、API Key、SSH Key洩漏就等於被駭
個人身分資訊身分證字號、護照號碼、信用卡號違反個資法,出事你要負責
財務機密未公開財報、併購計畫、薪資結構表可能構成內線交易或洩密
法律文件未簽署的合約、訴訟策略律師保密特權可能因此失效
醫療紀錄病歷、診斷報告、用藥清單違反醫療個資保護規範

真實案例:2023 年三星員工把公司機密程式碼貼進 ChatGPT,結果資料被用於訓練,三星直接禁止全公司使用 ChatGPT。不要以為這種事不會發生在你身上。


灰色地帶:要看情況

有些東西不是絕對不能用,但要看你的公司政策和使用的工具版本

公司內部文件

  • 內部 SOP、流程文件 → 如果已經是公開知識就還好
  • 客戶名單、聯絡方式 → 大部分公司不允許
  • 產品規格、技術文件 → 看保密程度

程式碼

  • 開源專案的程式碼 → 通常沒問題
  • 公司內部的 proprietary code → 要看公司政策
  • 包含 API Key 或設定檔的程式碼 → 絕對不行

判斷原則

問自己一個問題:「如果這段內容被公開在網路上,我會不會被開除?」

如果答案是「會」或「可能會」,就不要丟進去。


企業用 AI 的基本守則

如果你是主管或正在幫公司導入 AI 工具,以下是最基本要做的事:

1. 確認工具的資料處理政策

不要只看行銷頁面寫什麼,要去讀服務條款和隱私政策。重點確認:

  • 使用者輸入的資料是否會用於模型訓練?
  • 資料存放在哪個國家的伺服器?
  • 資料保留多久?可以要求刪除嗎?
  • 有沒有通過 SOC 2、ISO 27001 等資安認證?

2. 建立內部使用規範

至少要有一份文件說清楚:

可以用 AI 做的事不可以用 AI 做的事
寫 email 草稿(不含機密)處理客戶個資
整理公開資訊的會議紀錄貼上未公開的財務資料
學習新概念和技術上傳公司機密程式碼
翻譯一般性文件處理法律/合約相關文件

3. 敏感資料脫敏後再丟給 AI

如果你真的需要用 AI 處理包含敏感資料的文件,先做脫敏:

  • 把真實姓名換成「甲方」「乙方」
  • 把金額換成「X 元」
  • 把公司名稱換成代號
  • 移除所有身分識別資訊

脫敏後的內容丟給 AI 處理,拿到結果後再自己把真實資訊填回去。多一個步驟,但安全很多。

4. 定期檢視和更新政策

AI 工具的政策隨時在變。半年前可以的東西現在不一定可以,反過來也是。至少每季回頭看一次你用的工具的最新條款。


AI 生成內容的著作權問題

這是另一個很多人忽略的灰色地帶:AI 生成的內容,到底是誰的?

目前各國的法律還在追趕中,但有幾個大致方向:

問題目前狀況
AI 生成的文章有著作權嗎?多數國家:純 AI 生成的不受著作權保護
我用 AI 輔助創作的作品呢?要看人類的「創意貢獻」程度
我可以拿 AI 生成的圖片商用嗎?法律風險不明確,建議先確認工具的授權條款
AI 生成的內容抄襲了別人怎麼辦?你(使用者)可能要負責

實務建議:

  • 用 AI 生成的內容作為草稿和起點,不要直接當成最終版
  • 商用之前一定要自己修改和確認
  • 特別是圖片和設計,著作權爭議目前很多
  • 留下你的修改紀錄,證明你有「人類的創意投入」

個人使用者的安全清單

不用想太複雜,做到以下幾點就能避開大部分風險:

  1. 不要丟密碼和個資 — 這是底線
  2. 關掉訓練資料選項 — ChatGPT 可以在設定裡關閉「Improve the model for everyone」
  3. 工作用付費版 — 免費版的隱私保護通常比較弱
  4. 不要在公用電腦登入 AI 工具 — 對話紀錄可能被下一個人看到
  5. 定期清理對話紀錄 — 不需要的對話就刪掉,減少風險暴露面

本篇重點回顧

  • 你輸入的每一個字都可能被記錄、存檔、甚至用於訓練
  • 密碼、個資、未公開財務資料 → 絕對不丟
  • 公司內部文件、程式碼 → 看公司政策和工具版本
  • 企業導入 AI 要有使用規範 + 脫敏流程
  • AI 生成內容的著作權還在灰色地帶,當草稿用,不要直接發布

系列導覽