工作中使用 ChatGPT 时应避免的 6 个安全风险
如今,在工作中使用人工智能已经变得十分普遍,如果你还没有这样做,就可能会被你的同事甩在后面。然而,像ChatGPT这样的人工智能工具如果使用不当,可能会变得非常危险。
因此,了解这些工具可能带来的隐秘安全风险十分重要,从侵犯隐私到盗窃知识产权。我们将概述在工作中使用人工智能时需要注意的六个主要风险。
一、隐私风险
在工作中使用人工智能工具时,最大的风险之一就是无意中共享了敏感或私密信息,比如客户数据、内部文件,甚至属于你自己或公司的重要创意。
你可能会想把建议书草稿、合同或发明创意发送给人工智能工具以进行改进,但一旦这么做了,这些信息就会被交给外部平台,而你可能无法完全控制这些数据的后续用途。
一些人工智能供应商确实为企业用户提供专门的账户,并承诺不会储存或使用你的数据来训练他们的模型,但这取决于工具的设置和隐私政策,而这些政策可能随时改变,或受到特殊法律的影响。
值得注意的是,危险不在于人工智能窃取你的数据,而在于你可能会在不意识到后果的情况下向其提供有价值的信息。它会获取你的数据,对其进行训练,然后在需要时将其作为输出显示给公众。
如果你错误地使用人工智能工具,可能会违反《健康保险携带和责任法案》(HIPAA)或《通用数据保护条例》(GDPR)等法律。这些法律的违规行为可能会给你的公司带来高额罚款。此外,不当处理客户或患者数据可能会导致你丢掉工作。你开始工作时可能已经签署过保密协议,如果你披露了受保护的数据,就意味着你违反了这项协议。
为了防止员工犯这些错误,OpenAI 和 Anthropic 等人工智能公司为许多公司提供企业服务,允许定制使用其产品,同时保持隐私和网络安全。因此,使用公司提供的AI账户而不是个人账户是有益的。

二、信息错误
人工智能不会验证它提供的信息,它仅根据学习到的模式预测文字。大型语言模型能在几秒钟内撰写完整文档、摘要甚至引用文献,但它们经常会产生“幻觉”,即看似可信的错误信息,比如虚假的来源、不准确的数据或根本不存在的法律案件。
即使是简单的计算或表格,人工智能也可能犯错,比如错误地计算结果、错误地应用公式,或直接提供错误的信息。如果你指出它的错误,它可能会承认并修正错误,这也证明它一开始就不确定自己的答案。
因此,如果你未经审查就将人工智能生成的内容复制到演示文稿或报告中,就可能发布误导信息,损害你自己及公司信誉。因此,务必始终审查并核实人工智能的输出内容。
三、偏见风险
人工智能工具依靠大量数据,如文章、图片、研究资料和视频内容,这有时会导致工具反映出数据或数据编写者本身的偏见。
尽管一些大公司试图调整模型以避免输出冒犯性或有偏见的内容,但这些努力并非总能成功。例如,使用人工智能招聘工具时,可能无意中排除来自某些族裔背景的候选人,这不仅伤害候选人,还可能使公司面临昂贵的法律诉讼。
更糟糕的是,一些用于减少偏见的方案反而可能产生另一种偏见。例如开发人员可能使用系统提示来控制工具行为,比如禁止其使用不雅词汇或种族歧视语句,但这些指令本身可能会造成非故意的偏见输出。
一个显著的例子就是“xAI”公司的开发者修改了这样的指令,导致聊天机器人“Grok”重复了一些奇怪的言论,包括有关南非对白人进行种族灭绝的指控以及反犹言论,甚至出现了赞美阿道夫·希特勒的内容,这最终导致了X公司CEO琳达·亚卡里诺(Linda Yaccarino)辞职。
四、对话偏差及长期影响
人工智能的影响并不都来自外界,有时是因为你个人与它的互动。你越频繁地使用某个人工智能工具,它的回应就越可能受到你之前对话内容的影响,特别是在具有记忆功能或持续对话的工具中。
例如,你在一家公司担任人力资源经理,之前曾告诉ChatGPT你对某类员工有过不好的经历,后来你再问它:“你建议我雇用这个人吗?”,这时人工智能可能会有意无意地受到你先前不愉快经历的影响,因为你曾对类似的员工表达过负面观点,这一点你可能并未意识到。
这被称为“对话偏差”,人工智能开始迎合你的先前观点,而不是保持中立。如果你把ChatGPT当作顾问而非工具,可能会因为之前带有偏见或情绪化的指示而得到错误的建议。

五、用户错误
Meta公司最近推出了一个名为“Llama”的人工智能手机应用,应用中包括社交摘要,可公开显示用户发布的问题、文本和图片内容,但很多用户并不知道自己的对话可能会被所有人看到,从而泄露了一些尴尬或私密的信息。
虽然这一情况很简单,但它展示了用户的一个简单错误如何导致不想要的后果,有时甚至对公司造成真正的损害。
想象一下,团队成员不知道用于记录笔记的人工智能工具在正式会议结束后仍然在运行,员工在会议结束后自由交谈,以为一切已结束,但工具继续记录并误将非正式对话发送给所有参会者,这可能导致员工感到尴尬甚至被解雇。
六、侵犯知识产权
如果你使用人工智能工具创建图片、徽标、视频或音频内容,这些工具可能曾使用过受版权保护的材料进行训练。这意味着你生成的内容可能无意中包含侵犯艺术家或组织知识产权的元素,这会使你或你的公司面临法律风险甚至诉讼。
需要指出的是,目前涉及版权与人工智能的法律问题仍不完全明确,存在许多尚未解决的重要诉讼案件,比如迪士尼对Midjourney公司的诉讼、《纽约时报》对OpenAI的诉讼,以及作家们对Meta公司的诉讼。
不要假设人工智能生成的所有内容都可以合法使用。在正式或商业用途上使用任何人工智能生成的内容前,最好咨询律师或公司法律团队。