🔒 为什么 AI 聊天隐私很重要
许多人认为 AI 聊天机器人要么“完全私有”,要么“完全不安全”。事实更为复杂。聊天数据是否被保密取决于多个因素:您的账户类型、您启用了哪些隐私设置、记忆是否开启、您上传了哪些文件以及有哪些外部工具或连接器链接到您的账户。
本指南帮助您了解在将个人、工作或客户数据粘贴到任何 AI 聊天机器人(ChatGPT、Claude、Gemini、Copilot 或 Mistral)之前需要检查和调整的事项。
✅ 7 项安全使用 AI 聊天的最佳做法
1. 检查您的聊天是否可能被用于训练
一些提供方允许用户禁用用于模型改进的使用。其他提供方区分消费者产品和商业产品。选择退出训练并不总意味着您的聊天会从历史记录中消失或跳过所有处理。将聊天用于除低风险头脑风暴外的用途前,请先审查数据控制。
2. 对一次性敏感任务使用临时或降低历史记录模式
当您不希望对话保留在可见历史或影响记忆时,临时聊天更安全。它对快速起草、测试提示或重新表述文本特别有用。临时模式是 not 与禁用训练相同 — 请确认在您所选平台上它实际执行的操作。
3. 审查记忆与个性化设置
记忆可以使回答更有用,但也会扩展隐私暴露面。如果聊天机器人记住偏好、工作细节、姓名或持续上下文,这很方便——但也可能超出您长期想要共享的范围。除非确实从中受益,否则保持记忆最小化,并定期审查或删除已保存的记忆。
4. 将上传的文件、截图和语音输入视为更高风险
文件通常包含隐藏或被遗忘的信息:元数据、客户数据、机密注释、显示打开标签页的截图或内部内容。语音和实时功能也可能捕获比简短键入提示更多的信息。假定文件、截图、语音片段和实时会话比纯文本具有更高的隐私风险。
5. 对连接器、插件、GPTs、代理和 MCP 工具保持谨慎
最大的隐性风险通常不是聊天机器人本身,而是它能访问的内容。当您连接驱动器、日历、内部文档、CRMs、代码仓库或自定义工具时,信任边界会改变。一个看似无害的聊天请求可能会突然访问外部系统和敏感数据。
6. 未经批准,切勿粘贴秘密或受监管数据
隐私设置不是魔法盾。避免粘贴密码、API 密钥、恢复代码、私钥、敏感个人数据、病历、HR 文件、法律文件、事件记录或任何受 NDA 约束的内容,除非明确获批并适用于该环境。
7. 在重大产品更新后重新检查设置
AI 产品发展迅速。设置名称、位置或行为可能发生变化。新的记忆功能、连接器或语音功能可能在您未察觉的情况下扩大风险面。重大 UI 或产品更新后,请重新审查隐私、记忆和连接器设置。
⚙️ 最重要的设置
模型训练与数据使用
核实您的聊天是否可能用于改进模型,以及商业产品是否与消费者产品在行为上不同。
- ChatGPT: 用户可以控制其内容是否被用于改进供所有人使用的模型。
- Claude: 区分消费者产品和商业产品,并采用不同的数据处理方式。
- Gemini: 说明用户内容、文件、录音和活动在 Gemini Apps 中可能如何被处理。
- Copilot: 为训练提供隐私控制,并为个性化和记忆提供独立控制。
- Mistral: 记录了退出选项以及不同计划之间的差异。
需要理解的关键术语: training usage (您的数据是否用于训练模型), retention (数据保留多长时间), visible chat history (您在账户中看到的内容),以及 business/enterprise 默认设置 (商业计划有何不同)。
临时聊天与历史控制
一个常见的误解:关闭训练是 not 与使用临时聊天相同。临时模式可能将聊天排除在可见历史之外并避免创建记忆,但用户不应假定“临时”等于“零处理”或“零保留”。请检查每个平台对其临时模式的具体说明。
记忆与个性化
记忆是一项便捷功能,并非总是隐私友好的默认选项。它使回答更有用,但也意味着聊天机器人会长期存储偏好、工作细节、姓名和上下文。如果您不需要记忆来保持连续性,请将其禁用或保持最小化。定期查看并清除已保存的记忆。
文件、截图、语音和实时交互
并非所有输入类型都相同。当您上传以下内容时,风险会增加:
- PDF 和合同: 包含元数据、签名和机密条款
- 截图和屏幕捕获: 可能显示打开的标签页、敏感信息或意外的窗口
- 电子表格和数据文件: 通常包含隐藏的表单、公式和客户/员工数据
- 录音和语音笔记: 捕捉背景对话和意外的音频
- 会议摘要: 可能包含机密决策和敏感背景
用户常低估截图或嵌入文件中可见的内容。对包含元数据或意外内容的文件尤其要小心。
已连接的工具、GPTs、代理、连接器和 MCP
这是最严重的隐私风险之一。具有外部工具访问权限的聊天机器人可能比没有连接系统的机器人更危险。关键关注点:
- 第三方 GPTs 或聊天机器人扩展: 可能访问您的对话历史并将其传递给外部服务
- 自定义操作或工具: 可在不逐次确认的情况下读写外部系统
- 应用集成: 直接将日历、电子邮件、驱动器或 CRM 数据连接到聊天机器人
- 远程连接器: 桥接到 AI 平台之外的内部或外部服务
- 基于 MCP 的集成: 可以自动执行操作并访问已连接的资源
应用最小权限原则:只连接您实际需要的内容,仔细审查权限,并删除未使用的工具。
❌ 您绝对不应粘贴到 AI 聊天机器人的内容
无论隐私设置如何,以下项目在未经组织或数据所有者明确批准前不应粘贴到任何 AI 聊天中:
- Passwords — 任何账户、服务或系统的密码
- API 密钥 — 授权对服务进行编程访问的令牌
- SSH 私钥 — 用于服务器或代码仓库访问的密钥
- 恢复代码 — 用于帐户访问的一次性备份代码
- 内部令牌 — 身份验证令牌、会话 Cookie、Bearer 令牌
- 客户个人身份信息(PII) — 真实人员的姓名、电子邮件、地址、身份证号
- 员工人事详情(HR) — 薪资、绩效、个人记录
- 医疗数据 — 病历、诊断、处方
- 机密财务数据 — 未发布的数字、客户账户
- 受限制的法律文件 — 合同、协议、诉讼文件
- 事件响应记录 — 活动的安全调查细节
- 未经批准的私有仓库代码 — 专有或有许可证的源代码
- 任何受 NDA 或政策限制的内容 — 如果有疑问,请不要粘贴
在工作中,员工应遵循其组织批准的工具规则,即使公司在内部使用 AI。对敏感公司数据使用已批准的工具。
🔐 账户安全基础
虽然本指南主要关注安全使用 AI 聊天,但账户安全也很重要。以下是一些快速建议:
- 启用 2FA 或两步验证: 为您的 AI 账户添加第二因素以增强保护。
- 在可用时使用 passkeys: Passkeys 比密码更安全且更易使用。
- 保护与您账户关联的电子邮件: 电子邮件地址通常是账户恢复的关键——请确保其安全。
- 查看登录活动: 检查您的账户何时何地被访问。
- 保持恢复方法安全: 将恢复电子邮件和电话号码安全保存。
账户安全很重要,但本指南的主要焦点是了解聊天机器人的隐私设置本身。
💼 消费者与企业使用区别
不要假定所有计划的行为相同。关键区别:
- 消费者账户: 可能与企业产品有不同的默认设置。数据处理和隐私控制可能有所差异。
- 企业和企业版计划: 通常提供更强的管理、隐私和保留控制。可能还有额外的合规功能。
- 在工作环境: 员工应使用经批准的工作工具处理工作数据,而不是使用个人聊天机器人账户。查看您组织的政策。
✓ 快速安全检查表
在将重要数据粘贴到 AI 聊天前,请使用此快速检查表:
- 检查是否启用了模型训练 — 如有需要请禁用
- 考虑对一次性敏感任务使用临时聊天
- 审查并管理记忆/个性化设置
- 上传文件和截图时要小心
- 审查并最小化已连接的应用和外部工具
- 避免粘贴秘密和受限数据
- 在您的账户上启用 2FA 或 passkeys
- 重大产品更新后重新检查设置
📚 Official Resources
ChatGPT / OpenAI
- 数据控制常见问题(Data Controls FAQ)
- 临时聊天常见问题(Temporary Chat FAQ)
- 消费者隐私概述(Consumer privacy overview)
- 理解提示注入(Understanding prompt injections)
- 使用条款(Terms of Use / TOS)
Claude / Anthropic
Gemini / Google
Copilot / Microsoft
- Microsoft Copilot 隐私控制
- Microsoft 365 Copilot 的数据、隐私和安全
- Microsoft 365 Copilot 聊天隐私与保护
- Microsoft 服务协议(Microsoft Services Agreement / TOS)
Mistral
补充阅读
❓ 常见问题
我可以完全信任 AI 聊天机器人处理我的私人数据吗?
没有单一设置可以让 AI 聊天机器人完全私密或完全可信。隐私取决于您的账户类型、启用的设置、记忆是否开启、已上传的文件以及已连接的工具。最安全的做法是将所有 AI 聊天视为潜在非私密,除非您已明确验证了特定设置——并且无论如何都应避免粘贴真正敏感的数据。
“训练(training)”和“保留(retention)”之间有什么区别?
训练: 您的对话是否被用于改进 AI 模型。 保留: 提供方保留您的聊天数据的时长。它们是分开的。您可以禁用训练但仍然将聊天保存在数据库中;您也可能在 30 天后删除聊天但仍允许用于训练。请查看您平台的具体设置。
临时聊天等同于禁用训练吗?
不等同。临时聊天通常将对话排除在可见历史之外并可能避免创建长期记忆,但它们不一定禁用模型训练或保证您的数据不会以其他方式被处理。请阅读您平台的文档以了解“临时”一词的具体含义。
我应该使用企业计划而不是消费者计划吗?
企业和企业版计划通常比消费者计划提供更好的隐私和管理控制。如果您处理敏感的公司或客户数据,企业计划通常更合适。在工作中,请始终遵循您组织批准的工具策略,而不是使用个人账户。
已连接的工具(GPTs、插件、代理、MCP)可以访问我的敏感数据吗?
可以,已连接的工具可能是重大隐私风险。如果您连接了驱动器、日历、内部数据库或自定义工具,聊天请求可能会访问该系统。仅连接您实际需要的工具,仔细审查权限,并定期移除未使用的集成。
如果我意外粘贴了敏感数据该怎么办?
如果您不小心将密码、API 密钥或其他秘密粘贴到 AI 聊天: (1) 立即在受保护的系统中更改该密码/密钥,(2) 如果是工作相关,通知您的安全团队,(3) 如果平台允许,删除该聊天,(4) 假定该数据可能已被 AI 服务处理或记录,即使在删除之后也是如此。
我应该多久审查一次我的 AI 聊天隐私设置?
至少每 6 个月,或在您使用的 AI 提供方发布任何重大产品更新后审查一次。设置、设置名称、默认行为和新功能都可能改变。去年是私密的内容今年可能会变得公开,除非您保持更新。
我在哪里可以找到每个平台的官方隐私文档?
每个主要的 AI 平台(OpenAI、Anthropic、Google、Microsoft、Mistral)都会公布有关数据使用、隐私控制和安全性的官方文档。从您所用平台的官方隐私常见问题或数据控制部分开始。参见下方“Official Resources”部分以获取具体链接。
📚 我在哪里可以找到各 AI 平台的服务条款(TOS)?
在使用任何 AI 平台前,请务必查看官方服务条款(Terms of Service)。TOS 文档概述了数据处理、责任和使用权:
- ChatGPT / OpenAI 使用条款
- Claude / Anthropic 服务条款
- Gemini / Google 服务条款
- Copilot / Microsoft 服务协议
- Mistral 服务条款
专业提示: 阅读隐私专门部分(通常在末尾),其中详细说明了用户数据如何被处理、保留以及可能被用于训练。