你丟進 AI 的資料,去了哪裡?
每次你在 ChatGPT 輸入文字、上傳檔案,這些資料會傳送到 OpenAI 的伺服器進行處理。問題是:這些資料會被用來訓練 AI 嗎?會被保存多久?會被誰看到?
💡 核心原則 把 AI 當成一個「非常聰明但不一定可信的實習生」。你會把公司的最高機密告訴一個新來的實習生嗎?大概不會。對 AI 也該如此。
各家 AI 的隱私政策(2026 最新)
| 面向 | ChatGPT | Claude | Gemini | Perplexity |
|---|---|---|---|---|
| 預設用對話訓練模型 | ⚠️ 可關閉 | ❌ 不會 | ⚠️ 可關閉 | ❌ 不會 |
| 如何關閉 | 設定 → Data Controls | 預設即關 | 活動 → 關閉 | 預設即關 |
| 企業版隱私 | ✅ Enterprise | ✅ Team/Enterprise | ✅ Workspace | N/A |
| 資料保存期 | 30 天 | 90 天 | 依設定 | 不保存 |
| GDPR 合規 | ✅ | ✅ | ✅ | ✅ |
如何關閉 ChatGPT 的訓練功能
Settings → Data Controls → 「Improve the model for everyone」→ 關閉
關閉後,你的對話不會被用來訓練模型。但 OpenAI 仍可能暫時保存對話紀錄用於安全監控(30 天)。
🚫 絕對不能告訴 AI 的資訊
| 類型 | 範例 | 為什麼危險 |
|---|---|---|
| 👤 個人身分 | 身分證號、護照號 | 可能被用於身份盜竊 |
| 💳 金融資訊 | 信用卡號、銀行帳密 | 直接的財務風險 |
| 🏢 公司機密 | 未公開財報、商業策略 | 可能洩漏給競對 |
| 📋 客戶數據 | 客戶名單、聯絡方式 | 違反個資法 |
| 🔑 密碼憑證 | 任何帳號密碼 | 安全漏洞 |
| ⚖️ 法律文件 | 合約細節、訴訟內容 | 律師-客戶特權失效 |
企業 AI 安全使用守則
1. 制定 AI 使用政策
每家公司都應該有明確的 AI 使用規範:
- 可以用 AI 做什麼(例:起草 Email、整理會議紀錄)
- 不能用 AI 做什麼(例:上傳客戶個資、財務數據)
- 哪些工具經過公司核准
- 生成內容的審核流程
2. 使用企業版
| 工具 | 企業方案 | 安全保障 |
|---|---|---|
| ChatGPT Enterprise | 不用對話訓練、SOC 2 認證 | 管理員控制台 |
| Claude Team | 不訓練、資料隔離 | 團隊管理 |
| Google Workspace + Gemini | Google 級資安 | 整合 DLP |
3. 考慮本地部署
如果你的資料絕對不能離開公司,考慮用 Ollama 在本地跑 AI 模型。資料完全不經過任何雲端服務。
個人 AI 安全清單
✅ 養成好習慣
- ✅ 關閉 ChatGPT 的模型訓練功能
- ✅ 不輸入任何個人可識別資訊(PII)
- ✅ 機密文件先去識別化再給 AI
- ✅ 定期清除 AI 對話紀錄
- ✅ 使用強密碼 + 雙因認證
❌ 避免的行為
- ❌ 把客戶 Excel 直接上傳雲端 AI
- ❌ 在共用電腦上登入 AI 服務不登出
- ❌ 把帳號密碼貼給 AI「幫我測試」
- ❌ 用 AI 生成機密文件後不檢查
- ❌ 以為「刪除對話」就完全安全了
AI 與台灣個資法
台灣的《個人資料保護法》對 AI 使用有直接影響:
- 蒐集限制 — 不能未經同意把個人資料丟進 AI 處理
- 跨境傳輸 — 雲端 AI 將資料傳到國外伺服器,需符合跨境規範
- 去識別化 — 如果資料已經去識別化(無法辨識個人),則不受個資法限制
💡 實務建議 如果你需要用 AI 處理含個資的資料(例如客戶名單),先做「去識別化」——用代號取代真名、隱藏電話號碼、移除地址等,再交給 AI 處理。
想了解更多 AI 倫理議題?看看 AI 倫理與法規。 想了解全球 AI 安全趨勢?看看 AI 安全議題。
常見問題
ChatGPT 會記住我說的話嗎?
ChatGPT 有「記憶」功能(可關閉),會記住你在對話中提到的偏好和資訊。但這跟「用對話訓練模型」是兩回事。你可以在設定中管理或清除所有記憶。
公司能用免費版 AI 嗎?
技術上可以,但不建議。免費版的隱私保障較低(對話可能被用於訓練)。如果處理任何涉及客戶或公司機密的資訊,強烈建議使用企業版或本地部署(Ollama)。
AI 會不會被駭客攻擊?
有可能。已經發生過 ChatGPT 洩漏其他用戶對話紀錄的事件。這就是為什麼不要在 AI 中輸入敏感資訊。即使平台本身安全,你的帳號也可能被盜——所以一定要開雙因認證。