从一条规则开始
员工现在使用人工智能工具来撰写、概括、翻译、编码、 记笔记、搜索和决策支持。这可以节省时间,但也 带来新的隐私和安全风险。最安全的职场习惯很简单:不要把人工智能聊天机器人当作私人笔记本或受信任的公司保险库。
实际的问题不仅是“这个工具有隐私设置吗?” 还包括“如果它被审查、存储、暴露或发送到错误的系统,会不会造成伤害?” 如果答案可能是肯定的,在粘贴之前先停止并先检查被批准的工作流程。
10 项员工人工智能安全检查
1. 使用被批准的工具,而不是随意的人工智能应用
员工应优先使用公司批准的人工智能工具。账户类型、管理员 控制、保留策略、已连接的应用以及隐私边界在不同产品间各不相同。 即使两个产品看起来相似,其治理模型也可能大相径庭。
实用的员工规则很简单:如果组织提供了批准的工作区工具,就不要使用个人的人工智能账户处理工作数据。
2. 切勿粘贴机密信息(secrets)
不要把密码、恢复代码、API 密钥、访问令牌、私钥、数据库凭证或 webhook 密钥粘贴到人工智能聊天机器人中。一旦暴露,机密信息可能导致对系统、云服务、代码仓库和计费环境的直接访问。
更安全的做法是将真实的机密替换为占位符,例如 [API_KEY], [TOKEN],或 [PASSWORD]。在大多数情况下,人工智能只需要问题的结构,而不需要真实的数值。
3. 不要粘贴机密的客户或员工数据
客户的电子邮件、电话号码、地址、支持工单、HR 记录、工资细节、学生数据、医疗信息以及其他个人身份信息,默认情况下不应粘贴到人工智能工具中。
员工应先进行匿名化。将真实姓名替换为类似的标签,例如 客户 A, 学生 1,或 员工 B, 并在请求帮助之前删除不必要的日期、标识符和账户引用。
4. 不要将合同、法律草案或受保密协议覆盖的材料粘贴到通用工具中
法律文件通常包含保密义务、谈判历史、定价条款以及受监管或受特权保护的信息。更安全的方法是请求模板、检查清单或条款解释,而不是粘贴完整文件。
如果需要审查支持,请在经过批准的公司工作流程内使用已脱敏版本,而不是使用边界不清晰的便利型聊天机器人。
5. 按分类处理内部文件,而不是凭猜测
员工应了解公开、内部、机密和受限信息之间的区别。内部笔记可能看起来无害,但有些包含客户背景、安全细节、财务假设或路线图项,这些都不应粘贴到面向消费者的人工智能工具中。
如果你不知道数据的分类,请假定该数据至少是内部级别 并且在核实之前不要将其外部共享或与未经批准的人工智能工具共享。 想深入了解,请阅读 数据分类说明(Data Classification Explained) .
6. 优先使用工作账户而非个人账户
这是员工需要注意的最重要的区别之一。工作产品通常提供更强的控制环境,但这并不意味着它们对所有事项都是安全的。
员工仍应尽量减少共享的数据,仅使用被批准的工具,并遵守公司政策。工作账户是更安全的起点,但不是不受限制的通行证。
7. 对已连接的应用、代理和 MCP 风格工具要小心
风险不仅来自聊天界面。一些人工智能工具可以搜索公司数据、拉取文件或通过已连接的应用和自定义集成采取行动。
在启用应用、连接器或代理之前,问自己三个问题:它能访问什么、它能发送什么、我以后能否轻松移除它?如果答案不清楚,请不要连接。
8. 假设人工智能的输出可能是错误、不完整或不安全的
员工绝不应将人工智能的输出直接复制到生产系统、客户沟通、法律文件或安全决策中,除非经过审查。
正确的原则是:用人工智能加速工作,而不是替代判断。 审查事实、权限、计算、引文和敏感措辞 在对结果采取行动之前。
9. 先脱敏,再概括,最后粘贴
当员工需要人工智能帮助时,最安全的顺序是:
- 首先脱敏敏感细节
- 概括实际问题
- 仅粘贴所需最少信息
这适用于电子邮件、工单、事件记录、代码片段、电子表格 和会议摘要。例如,与其粘贴包含姓名和账号的完整客户 投诉,不如请求对延迟发货的回复做更冷静的改写。
10. 及早报告错误和风险使用情况
员工应当知道在粘贴错误内容、连接错误工具或发现人工智能被不安全使用时该如何做。快速报告优于悄悄收拾残局。
公司的一项良好做法是为员工提供明确的报告通道:
- 意外分享敏感数据
- 可疑的人工智能生成输出
- 不安全的提示模式
- 未经批准的工具或连接器
- 影响客户的幻觉(错误输出)
- 内部政策问题
简易员工检查表
在将人工智能用于工作之前,员工应检查:
- 这是公司批准的人工智能工具吗?
- 我是否登录了正确的工作账户?
- 该内容是否包含机密、个人身份信息、合同、法律材料或 受限的内部信息?
- 我能否先脱敏姓名、ID、令牌和内部细节?
- 该内容是否被归类为内部、机密或受限?
- 我是否将要连接一个我不完全了解的应用、代理或外部工具?
- 在发送或对输出采取行动前,我是否需要人工审核?
- 如果出现问题,我是否知道如何报告错误?
该检查表特意保持简短。目标不是让员工害怕人工智能,而是让安全使用成为默认行为。
作为补充阅读,请将此检查表与以下内容配合使用: AI 聊天隐私设置(AI Chat Privacy Settings) , 你不应与人工智能聊天机器人分享的内容(What You Should Never Share with AI Chatbots) ,以及 数据分类说明(Data Classification Explained) .
最终要点
员工不需要成为安全专家就能正确使用人工智能。但他们确实需要养成一些良好习惯:使用被批准的工具、保护敏感数据、优先使用工作账户而非个人账户、在采取行动前审查输出,并对已连接的应用和代理保持谨慎。
最佳的人工智能安全检查表不是冗长的政策文件。它是人们每天切实可行的一组行为。
官方参考资料与延伸阅读
- OpenAI:面向消费者服务的数据使用常见问题
- OpenAI:ChatGPT 中的应用(Apps in ChatGPT)
- OpenAI:ChatGPT 应用与同步常见问题(ChatGPT Apps with Sync FAQ)
- Anthropic 隐私中心:商业产品(Commercial products)
- Anthropic 隐私中心:面向消费者的产品(Consumer products)
- Google Workspace:Gemini 隐私与数据保护
- Microsoft Learn:Microsoft 365 Copilot 聊天隐私与保护(Microsoft 365 Copilot Chat Privacy and Protections)
- OWASP GenAI:敏感信息泄露(Sensitive Information Disclosure)
- CISA:人工智能数据安全最佳实践(AI Data Security Best Practices)
- NIST:生成式人工智能概况(Generative AI Profile)
常见问题
员工可以将个人的人工智能账户用于工作吗?
默认情况下,应使用公司批准的工具。个人的人工智能账户在隐私、保留和管理控制方面可能与工作产品有很大不同。
什么内容绝不应该粘贴到员工的人工智能工作流程中?
密码、恢复代码、API 密钥、私钥、客户个人身份信息、HR 记录、法律草案、机密合同以及受限的内部数据,除非有明确批准的工作流程,否则应避免放入通用人工智能工具。
工作用的人工智能账户总是安全吗?
不。工作账户通常具有更强的控制,但员工仍需尽量减少敏感输入,遵守分类规则,并在采取行动前审查输出。
为什么连接器和代理需要额外谨慎?
这是因为风险不仅来自聊天窗口。已连接的应用、代理和 MCP 风格工具可能会搜索、获取或在外部系统上采取操作,从而扩展了信任边界。
员工使用人工智能时最好的第一个习惯是什么?
在粘贴之前暂停。检查该工具是否被批准、信息是否敏感,以及是否可以先脱敏或概括。
员工出错后应该做什么?
及早报告。对意外共享、风险输出或不安全工具使用的快速报告,比事后悄悄处理要好。