你把公司的合約內容貼進 ChatGPT 的那一刻,那份合約可能就不再只屬於你公司了。
先講結論
免費版的 AI 工具=你的資料可能被拿去訓練。想安全就用企業方案或自架。但就算用付費版,有些東西——密碼、身分證號、信用卡號——任何版本都不該丟進去。這不是技術問題,是常識問題。花 5 分鐘搞懂這篇的內容,可以幫你避開一堆麻煩。
你輸入的東西去哪了?
很多人以為跟 AI 聊天就像跟朋友傳 LINE——講完就沒了。不是的。你輸入的每一個字,都可能經歷以下流程:
你輸入文字 → 傳到 AI 公司的伺服器 → 被記錄在 log 裡
→ 可能被用來改善模型(訓練資料)
→ 可能被內部人員審查(品質控管)
不同工具的資料處理方式不一樣,這是你需要搞清楚的:
| 工具 | 免費版資料處理 | 付費/企業版 |
|---|---|---|
| ChatGPT(OpenAI) | 預設會用於模型訓練(可以關掉) | Team/Enterprise 版不用於訓練 |
| Claude(Anthropic) | 免費版可能用於改善服務 | Pro 版以上有較嚴格的資料政策 |
| Gemini(Google) | 可能用於改善產品 | Workspace 版有企業級隱私保護 |
| Copilot(Microsoft) | 依據 Microsoft 隱私條款 | 企業版資料不外流 |
重點:「不用於訓練」不等於「完全不留記錄」。就算是付費版,AI 公司的伺服器上通常還是會有對話紀錄,只是不拿去訓練而已。
絕對不要餵給 AI 的東西
這些東西無論你用什麼版本、什麼平台,都不該丟進去:
紅線清單
| 類別 | 範例 | 為什麼不行 |
|---|---|---|
| 密碼和憑證 | 登入密碼、API Key、SSH Key | 洩漏就等於被駭 |
| 個人身分資訊 | 身分證字號、護照號碼、信用卡號 | 違反個資法,出事你要負責 |
| 財務機密 | 未公開財報、併購計畫、薪資結構表 | 可能構成內線交易或洩密 |
| 法律文件 | 未簽署的合約、訴訟策略 | 律師保密特權可能因此失效 |
| 醫療紀錄 | 病歷、診斷報告、用藥清單 | 違反醫療個資保護規範 |
真實案例:2023 年三星員工把公司機密程式碼貼進 ChatGPT,結果資料被用於訓練,三星直接禁止全公司使用 ChatGPT。不要以為這種事不會發生在你身上。
灰色地帶:要看情況
有些東西不是絕對不能用,但要看你的公司政策和使用的工具版本:
公司內部文件
- 內部 SOP、流程文件 → 如果已經是公開知識就還好
- 客戶名單、聯絡方式 → 大部分公司不允許
- 產品規格、技術文件 → 看保密程度
程式碼
- 開源專案的程式碼 → 通常沒問題
- 公司內部的 proprietary code → 要看公司政策
- 包含 API Key 或設定檔的程式碼 → 絕對不行
判斷原則
問自己一個問題:「如果這段內容被公開在網路上,我會不會被開除?」
如果答案是「會」或「可能會」,就不要丟進去。
企業用 AI 的基本守則
如果你是主管或正在幫公司導入 AI 工具,以下是最基本要做的事:
1. 確認工具的資料處理政策
不要只看行銷頁面寫什麼,要去讀服務條款和隱私政策。重點確認:
- 使用者輸入的資料是否會用於模型訓練?
- 資料存放在哪個國家的伺服器?
- 資料保留多久?可以要求刪除嗎?
- 有沒有通過 SOC 2、ISO 27001 等資安認證?
2. 建立內部使用規範
至少要有一份文件說清楚:
| 可以用 AI 做的事 | 不可以用 AI 做的事 |
|---|---|
| 寫 email 草稿(不含機密) | 處理客戶個資 |
| 整理公開資訊的會議紀錄 | 貼上未公開的財務資料 |
| 學習新概念和技術 | 上傳公司機密程式碼 |
| 翻譯一般性文件 | 處理法律/合約相關文件 |
3. 敏感資料脫敏後再丟給 AI
如果你真的需要用 AI 處理包含敏感資料的文件,先做脫敏:
- 把真實姓名換成「甲方」「乙方」
- 把金額換成「X 元」
- 把公司名稱換成代號
- 移除所有身分識別資訊
脫敏後的內容丟給 AI 處理,拿到結果後再自己把真實資訊填回去。多一個步驟,但安全很多。
4. 定期檢視和更新政策
AI 工具的政策隨時在變。半年前可以的東西現在不一定可以,反過來也是。至少每季回頭看一次你用的工具的最新條款。
AI 生成內容的著作權問題
這是另一個很多人忽略的灰色地帶:AI 生成的內容,到底是誰的?
目前各國的法律還在追趕中,但有幾個大致方向:
| 問題 | 目前狀況 |
|---|---|
| AI 生成的文章有著作權嗎? | 多數國家:純 AI 生成的不受著作權保護 |
| 我用 AI 輔助創作的作品呢? | 要看人類的「創意貢獻」程度 |
| 我可以拿 AI 生成的圖片商用嗎? | 法律風險不明確,建議先確認工具的授權條款 |
| AI 生成的內容抄襲了別人怎麼辦? | 你(使用者)可能要負責 |
實務建議:
- 用 AI 生成的內容作為草稿和起點,不要直接當成最終版
- 商用之前一定要自己修改和確認
- 特別是圖片和設計,著作權爭議目前很多
- 留下你的修改紀錄,證明你有「人類的創意投入」
個人使用者的安全清單
不用想太複雜,做到以下幾點就能避開大部分風險:
- 不要丟密碼和個資 — 這是底線
- 關掉訓練資料選項 — ChatGPT 可以在設定裡關閉「Improve the model for everyone」
- 工作用付費版 — 免費版的隱私保護通常比較弱
- 不要在公用電腦登入 AI 工具 — 對話紀錄可能被下一個人看到
- 定期清理對話紀錄 — 不需要的對話就刪掉,減少風險暴露面
本篇重點回顧
- 你輸入的每一個字都可能被記錄、存檔、甚至用於訓練
- 密碼、個資、未公開財務資料 → 絕對不丟
- 公司內部文件、程式碼 → 看公司政策和工具版本
- 企業導入 AI 要有使用規範 + 脫敏流程
- AI 生成內容的著作權還在灰色地帶,當草稿用,不要直接發布