本文来自人民邮电报,作者/临渊。
近日,特斯拉首席执行官埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克等上千名科技界大佬签署公开信,呼吁暂停训练强于OpenAI公司GPT-4的人工智能(AI)系统。公开信的发布再一次将人工智能推上风口浪尖,触发人们对人工智能成为“脱缰野马”担忧的同时,也给各国的监管政策制定上了“发条”。
人工智能将带来生存风险?
这封公开信由非营利组织“生命未来研究所(Future of Life Institute)”撰写,其使命是“减少强大技术带来的全球灾难性和生存风险”。
信中写道:“只有在我们确信人工智能的影响是积极的、风险是可控的情况下,才应该开发更强大的人工智能系统。因此,我们呼吁所有人工智能实验室立即暂停至少6个月训练比GPT-4更强大的人工智能系统。人工智能实验室和独立专家应该利用这段时间,共同开发和实施一套高级人工智能设计和开发的共享安全协议,这些协议由独立的外部专家严格审计和监督。”
这封信还澄清说:“这并不意味着人工智能发展总体上处于暂停状态,只是从危险的竞赛退回到具有紧急功能、不可预测的黑箱模型。”它指的是微软和谷歌等大型科技公司之间的人工智能竞赛。
尽管这封信一开始有许多虚假签名者,被指加剧人工智能炒作、签名造假以及歪曲论文等,还有很多人工智能研究人员和专家公开对这封信中的描述和提议的方法表达了反对意见。但这一事件的火爆无疑代表了人工智能技术狂飙突进的当下,人们对人工智能伦理的担忧。
公开信中提出了几个问题:“我们是否应该自动化所有工作,包括那些让人有成就感的工作?我们是否应该培养非人类思维,这些思维最终可能超过人类智慧并取代我们?我们应该冒着失去对文明控制的风险继续开发人工智能吗?”
纽约大学心理学和神经科学教授加里·马库斯说:“这封信并不完美,但其精神是正确的。”
监管挑战迫在眉睫
这样的警告给各国监管机构带来压力,要求它们阐明将人工智能严加控制的计划。作为公开信的签字人之一,研究机构Mila创始人兼科学主任约书亚·本吉奥表示,6个月的暂停时间对于包括政府在内的治理机构理解、审计和验证人工智能系统是必要的,可以确保这些系统对公众是安全的。事实上,许多国家近年来一直致力于制定人工智能领域的法律、法规。
联合国教科文组织敦促各国“毫不拖延地”应用关于人工智能技术的全球道德框架,包含最大限度发挥人工智能优势并减少它带来的风险。
欧盟正在加快推动人工智能立法。欧盟内部市场委员蒂埃里·布雷顿表示,这项立法将帮助人们消除对新近大热的ChatGPT聊天机器人乃至人工智能技术风险的担忧。
2021年4月,欧盟委员会提出了《人工智能法案》条例草案。2022年12月6日,欧盟理事会通过了关于《人工智能法案》的共同立场,旨在确保投放到欧盟市场并在欧盟范围内使用的人工智能系统是安全的。
这一提案对人工智能系统的定义、禁止人工智能应用的领域、人工智能系统的高风险分类、与执法机关有关的范围和规定、支持创新的措施等方面进行了阐述。欧盟希望该法案既能推动人工智能的投资和创新,又能促进保障公民基本权利和安全的现行法律得到有效执行和加强。
负责数字政策和竞争事务的欧委会执行副主席玛格丽特·韦斯塔格在草案提出时说,即将出台的欧洲规则将有助于制定“新的全球规范,确保人工智能可以被信任”。
欧盟理事会表示,这样法案将与其他倡议齐头并进,包括旨在加快欧洲人工智能投资的《人工智能协调计划》。
在英国,对人工智能挑战的最新回应是一份91页的白皮书——《支持创新的人工智能监管方法》。该文件由英国科学、创新和技术部发布,称它提出了一个“世界领先”的人工智能监管方法,是“新国家蓝图的一部分,即打造世界级监管以推动负责任的创新并保持公众对这一革命性技术的信任”。
该文件称“政府将避免可能扼杀创新的强硬立法,并采取适应性的方法来监管人工智能。政府不会把人工智能治理的责任交给一个新的单一监管机构,而是授权现有的监管机构——如健康和安全执行委员会、平等和人权委员会以及竞争和市场管理局——提出量身定制的、针对具体情况的方法,以适应人工智能在其管理领域的实际应用”。
无论如何,监管都是设法实现一种平衡:一方面注重人工智能发展带来的所有好处;另一方面是充分尊重公民的基本权利。
行到路口,左右观望
值得注意的是,公开信引起广泛的关注,不仅仅在于它提出的问题,而是它引发的更加充满分歧的讨论。
普林斯顿大学计算机科学副教授阿尔温德·纳拉亚南表示,计算机是否会取代人类并接管人类文明,这是一个非常遥远的问题……它分散了我们对当前问题的注意力。人工智能被整合到人们的工作中,是减少了对某些职业的需求,而不是会让我们“过时”。他表示:“这些可以算是合理的长期担忧,但它们已被反复提及,转移了人们对当前危害的注意力,包括非常真实的信息安全和安全风险!而消除这些安全风险需要我们精诚合作。但不幸的是,这封信中的炒作,包括对人工智能能力和事关人类生存风险的夸大,可能导致人工智能模型被更多地束缚,使应对风险变得更加困难。”
意大利政府日前对人工智能态度的摇摆也是人们关于人工智能治理困惑的一个例证。在指责开发ChatGPT的OpenAI公司未能遵守用户数据保护法规后,意大利负责监管数据的机构3月31日宣布将禁止在其境内使用ChatGPT。
根据意大利监管机构的说法,ChatGPT及其母公司OpenAI违反了《欧洲通用数据保护条例》中的部分规定。这使得意大利当局决定禁止(目前只是暂时)该公司在意大利境内开展业务。
但两天后,意大利副总理兼基础设施与可持续交通部部长马泰奥·萨尔维尼就在社交媒体上表示,意大利对ChatGPT的禁令似乎有些过分了,并建议尽快提出合适的解决方案。
他认为禁令可能损害意大利的商业和创新,并希望解除禁令。他说:“每一次技术革命都会带来巨大的变化、风险和机遇。通过监管者和立法者之间的国际合作来对其进行控制和监管是正确的,但不能将其封锁。”
英国政府似乎也对人工智能的认知存在不足。致力于把英国建成“科技超级大国”的英国首相里希·苏纳克将人工智能定义为“未来技术”。但根据英国科学、创新和技术部(DSIT)的数据,人工智能领域已经为英国提供了约5万个工作岗位,仅在2022年就为国民经济贡献了37亿英镑(约合46亿美元)。
事实上,人工智能早已不是“未来技术”,它已经站在我们面前,并带着潜在的危险,确实有必要在发生严重问题前对其进行监管。
独立研究机构Ada Lovelace研究所的人工智能法律和监管副主任迈克尔·伯特韦斯特尔认为,拟议的战略“相对于挑战的紧迫性和规模,力量不足”。他还警告说,《支持创新的人工智能监管方法》白皮书中的建议“缺乏法定基础。这意味着监管者、开发者或人工智能系统的用户没有新的法律义务,未来监管者可能只有最低限度的责任。如果不对现有的监管机构进行大量投资,英国也将很难有效地监管人工智能在各个领域的不同用途”。
即使是在人工智能监管方面走得最快的欧盟,目前,欧洲议会的议员也未就《人工智能法案》条例草案的基本原则达成一致。他们争议的核心是监管是否会阻碍创新,即如何平衡数据隐私与避免扼杀人工智能的创新和投资。其中最具争议的领域是决定哪些人工智能系统将被归为“高风险”。这些讨论也代表了目前对于人工智能发展和监管的主要争议:一方面是对公民基本权利的关注;另一方面是对监管约束与创新产生冲突的担忧。