本文来自极客网,作者:极客AI。
为了保护数据的机密性,越来越多的企业禁止使用ChatGPT和其他类似基于云的生成AI服务,苹果也加入了这一行列。
根据《华尔街日报》的报道,苹果还禁止员工使用GitHub的Copilot工具,而很多开发人员使用该工具来帮助编写软件。
最近的一项调查发现,39%的Mac开发者正在使用这项技术。
真的有必要实施全面禁令么?
尽管苹果实施这一禁令似乎有些极端,但表明该公司听从了一些信息安全专家对使用这些服务发出的警告。令人担忧的是,使用这些服务可能泄露敏感数据或机密数据。在今年早些时候,三星发现其员工向ChatGPT上传了机密的源代码,随后禁止员工使用这些工具。
一些信息安全专家非常清楚这个问题。网络安全服务商Orange Cyberdefense的高级安全研究员Wicus Ross警告说:“虽然AI聊天机器人经过了开发人员进一步的训练和完善,但工作人员仍有可能访问输入到它们的数据。而且,考虑到人类通常是企业安全态势中最薄弱的因素,这会使这些信息面临一系列威胁,即使风险是偶然的。”
虽然OpenAI向企业客户提供了一个更保密(运行成本也更高)的自托管版本的服务,但其风险在于,在公共使用协议下数据几乎没有机密性。
这在处理机密代码和内部文档方面很糟糕,而在处理来自严格监管的行业,如银行、医疗和其他领域的信息时,将面临更大的风险。如今已经看到了一些数据泄露事件,例如一些人询问ChatGPT的问题已经泄露给不相关的人员。
人们提出的问题变成了数据,那么能够信任拥有这些数据的人吗?
尽管苹果的这一决定可能让人感觉反应过度,但企业必须说服员工对他们正在共享的数据保持警惕。问题是,当使用基于云的服务来处理数据时,这些信息很可能会被保留,用于评分或评估,甚至在将来使用。
从本质上来说,用户向AI聊天机器人提出的问题将成为未来答案的数据点,他们提供给基于云的服务的信息可能被人访问,无论是来自企业内部还是外部攻击。现在已经出现了这种情况,在今年早些时候发生数据泄露事件之后,OpenAI不得不让ChatGPT暂时下线。
英国国家网络安全研究中心(NCSC)提供的建议解释了这种风险的本质。建议指出,这些询问的问题对服务提供者是可见的,还将被存储起来,并且肯定会在某个时候用于开发服务。
在这种情况下,在任何人进行查询之前,需要对服务的使用条款和隐私政策进行深入审查。此外,人们面临的另一个挑战是,他们提出的问题也会变成数据。
正如NCSC所解释的那样:“随着越来越多的组织开发大型语言模型(LLM),也增加了另一种风险,那就是存储在网上的查询问题可能被黑客攻击和泄露,或者更有可能意外地被公开访问,这可能包括潜在的用户身份信息。”
谁将拥有和保存人们的问题?
随着AI行业的整合加速,还存在另一层风险。用户可能在某一天向一个经过安全验证的LLM询问敏感问题,这个LLM符合企业安全协议的所有要求,但它可能不久会被网络安全策略较弱的第三方购买,第三方购买者将拥有以前提供给该服务的敏感数据,但其安全防护性较差。
这个令人担忧的问题并没有被提出,是因为信息安全专家在测试中了解到会出现这种情况,反映出人们已经看到了问题。例如,根据最近发布的一份调查报告,去年在GitHub等公共存储库中对外泄露了1000多万条机密数据,包括API密钥和凭据。
很多时候,这类机密数据都是通过使用这类服务的个人账户共享的,丰田、三星和苹果发布的禁令表明这种情况确实已经发生了。考虑到这一点,大多数信息安全专家都警告用户不要在向公共服务(例如ChatGPT)进行查询时包含敏感机密信息。
因此,用户永远不应该问那些公开之后可能会带来麻烦的问题,对于任何试图保护其数据安全的大公司来说,都可能全面禁止使用ChatGPT,而这是迄今为止最简单的解决方案,至少目前是这样。
生成式AI会走向边缘
但情况不会一直如此。生成式AI最合乎逻辑的发展之路是朝着能够托管在边缘设备上的小型LLM系统发展。这是可能实现的,因为斯坦福大学开发了能够在谷歌Pixel手机上运行的小型LLM系统。这可以让人们预期,在未来可能没有人会在iPhone上使用ChatGPT应用程序,因为他们将使用手机本身提供的类似技术。
但是,对于任何使用基于云的LLM服务的人来说,其遵守的规则是,如果安全性得不到保证,永远不应该共享机密或敏感数据。这证明了边缘处理和隐私保护在互联时代的价值。