本文来自Metaverse元宇宙,作者/Sanderson。
人工智能公司OpenAI本周推出了GPT-4,这是为其流行的聊天机器人ChatGPT提供支持的大型语言模型的最新版本。
该公司表示,GPT-4包含重大改进——它已经以其创建类人文本并从几乎任何提示生成图像和计算机代码的能力震惊了人们。研究人员表示,这些能力有可能改变科学——但有些人感到沮丧的是,他们还无法获得该技术、其底层代码或有关其训练方式的信息。
科学家们表示,这引起了对该技术安全性的担忧,并使其对研究的用处降低。
1被列为研究论文的作者?许多科学家不赞成
“目前有一个等候名单,所以你现在不能使用它,”阿姆斯特丹大学的心理学家Evi-Anne Van Dis说。但她看过GPT-4的演示。“我们观看了一些他们展示能力的视频,这令人震惊,”她说。
她回忆说,一个例子是一个网站的手绘涂鸦,GPT-4用它来生成构建该网站所需的计算机代码,作为处理图像作为输入的能力的演示。
但是,科学界对OpenAI对模型的训练方式和训练数据及其实际工作方式的保密感到失望。“所有这些闭源模型,它们本质上都是科学的死胡同,”开源AI社区HuggingFace专门研究气候的研究科学家Sasha Luccioni说。“他们可以继续他们的研究,但对于整个社区来说,这是一条死胡同。”
2“红队”测试
罗切斯特大学的化学工程师安德鲁·怀特(Andrew White)以“红队队员”的身份获得了使用GPT-4的特权:
OpenAI雇用一名人员来测试该平台,试图让它做一些不好的事情。他说,在过去的六个月里,他一直在使用GPT-4。与之前的迭代相比,“在流程的早期,它似乎并没有什么不同”。
他向机器人询问制造化合物需要哪些化学反应步骤、预测反应产率以及选择催化剂。“起初,我实际上并没有留下深刻的印象,”怀特说。“这真的很令人惊讶,因为它看起来很逼真,但它会在这里产生一个原子的幻觉。它会在那里跳过一步,”他补充道。
但是,作为他的红队工作的一部分,当他允许GPT-4访问科学论文时,情况发生了巨大变化。“这让我们意识到这些模型可能并没有那么好。但是当你开始将它们连接到Internet上,使用诸如逆合成计划器或计算器之类的工具时,突然之间,就会出现新的能力。”
伴随这些能力而来的是担忧。例如,GPT-4是否允许制造危险化学品?怀特说,根据怀特等人的意见,OpenAI工程师将反馈反馈到他们的模型中,以阻止GPT-4创建危险、非法或破坏性的内容。
3输出虚假信息
输出虚假信息是另一个问题。Luccioni说,像GPT-4这样的模型,可以预测句子中的下一个单词,无法治愈产生虚假事实——称为幻觉。“你不能依赖这些模型,因为有太多的幻觉,”她说。
这在最新版本中仍然是一个问题,尽管OpenAI表示它提高了GPT-4的安全性。
在无法访问用于训练的数据的情况下,OpenAI对安全的保证对Luccioni来说是达不到要求的。“你不知道数据是什么。所以你不能改进它。我的意思是,用这样的模型做科学研究是完全不可能的,”她说。
GPT-4是如何训练的谜团也是Van Dis在阿姆斯特丹的同事、心理学家Claudi Bockting关心的问题。“作为一个人,很难对你无法监督的事情负责,”她说。“其中一个担忧是,它们可能比人类自身的偏见要严重得多。”Luccioni解释说,如果无法访问GPT-4背后的代码,就不可能看出偏见可能起源于何处,也无法对其进行补救。
4伦理讨论
Bockting和Van Dis还担心这些人工智能系统越来越多地被大型科技公司拥有。他们希望确保该技术得到科学家的适当测试和验证。“这也是一个机会,因为与大型科技公司的合作当然可以加快流程,”她补充道。
Van Dis、Bockting和他的同事在今年早些时候提出,迫切需要制定一套“实时”指南来管理人工智能和GPT-4等工具的使用和开发方式。他们担心任何围绕人工智能技术的立法都将难以跟上发展的步伐。Bockting和Van Dis于4月11日在阿姆斯特丹大学召开了一次邀请性峰会,与来自教科文组织科学伦理委员会、经济合作与发展组织和世界经济论坛等组织的代表讨论这些问题。
怀特说,尽管存在担忧,但GPT-4及其未来的迭代将撼动科学。“我认为这实际上将是科学领域的巨大基础设施变革,就像互联网是一个巨大的变革一样,”他说。他补充说,它不会取代科学家,但可以帮助完成一些任务。“我认为我们将开始意识到我们可以将我们使用的论文、数据程序、图书馆与计算工作甚至机器人实验联系起来。”
原文标题:GPT-4 is here:what scientists think
本期图片均来源于Google