本文来自千家网。
人工智能现在可以对看似怪异的人类问题做出回应。但有时,人工智能会给出答案。这些虚构的反应是真实的幻觉,还是别的什么?
要点:
研究发现,93%的受访者认为,人工智能幻觉可能会以某种方式导致实际伤害。
虽然ChatGPT可能是一种快捷工作方式,但更多人与Siri和Alexa交谈,就好像是值得信赖的顾问一样。
人工智能的反应有可能影响人类生存的几乎所有方面。
去年11月,当OpenAI推出聊天生成预训练转换器(ChatGPT)时,立即受到了世界各地用户的测试。ChatGPT被视为一种革命性的研究工具和有趣的新奇事物。
一些人认为它很有用——事实证明,人工智能聊天机器人擅长从不同的来源收集信息,并将其综合成一种对话式的、易于理解的格式。但也有许多人发现自己面对的是不合逻辑的结论,甚至是彻头彻尾的谎言。许多回应都很滑稽——例如,尽管该平台收集了公众人物的出生和死亡日期,但无法明确说明其已经死亡。
但也有令人不安的。ChatGPT发明了医学研究,甚至将其与其他不相关论文的DOI(数字对象标识符)联系起来。这些令人困惑的结果被称为人工智能幻觉——大型语言模型(LLM)生成的信息与现实的关系很脆弱。其中一些所谓的幻觉似乎完全是捏造的,而另一些则似乎是虚构的,借鉴了已证实的事实,但却用垃圾来填补空白。
LLM以这种方式失败的原因人们知之甚少。目前的观点表明,无论如何称呼,这些不准确的反应总是会出现在人工智能系统中,而人类的反馈对于确保它们不会完全脱轨至关重要。
此外,用于描述这些失败的语言也越来越受到争议。这些真的是人类经历过的幻觉吗?如何才能纠正呢?
什么是人工智能幻觉?
根据2015年一篇关于精神病的调查文章:“幻觉被定义为在没有相应的外部或躯体刺激的情况下的感觉知觉,并根据其发生的感觉域进行描述。无论是否了解幻觉的本质,幻觉都可能发生。”
将人工智能产生的不准确信息描述为幻觉,是隐喻性地借鉴了这个概念。机器人可能并不梦想成为电子羊,但可能会制造出这样的想法:它们存在于合适的环境中。这个词最早出现在一次面部和手势识别会议的论文中,后来被广泛应用。
在ChatGPT这样的系统中,这些幻觉可以以各种形式出现。ChatGPT会对用户输入的提示做出反应。正如Tidio的研究所述,它们可能直接与提示相矛盾,包括矛盾的句子或事实,甚至完全捏造来源。在其他情况下,如在术语的原始用法中,它们也可以是视觉的,以视频或图像形式,或听觉的。
人工智能幻觉有很多种类型,但所有这些都归结为同一个问题:混合和匹配它们接受过训练的数据,以生成一些全新的错误的东西。
这些幻觉反应通常但并非总是表面上合理。这些模型旨在生成易于用户理解的材料,因此即使是错误的信息也会以自信、实事求是的方式呈现。因此,即使是幻觉也会被呈现得如同现实一样。
真的是幻觉吗?
机器产生的虚拟反应和人类的感官现象之间的类比是显而易见的:两者都会产生不以现实为基础的信息。就像经历幻觉的人可能会看到生动逼真的图像或听到让人想起真实听觉现象的声音一样,LLM可能会在其“头脑”中产生看似真实但并非真实的信息。
然而,最近发表在《精神分裂症公报》上的一篇文章对这种隐喻性的构建提出了质疑。作者声称:“这是一个不精确的比喻。幻觉是一个医学术语,用来描述在没有外部刺激的情况下产生的感觉知觉。人工智能模型不具备感官知觉,即使它们犯了错误,也不会在没有外部刺激的情况下发生。相反,训练人工智能模型的数据可以被视为外部刺激,引发(偶尔错误的)反应的提示也可以被视为外部刺激。”
他们进一步认为,使用“幻觉”一词是对那些患有精神疾病并经历过真正幻觉的人的侮辱。他们建议使用“不合逻辑的”或“不相关的反应”来代替。
还有‘人工智能误解’、‘人工智能捏造’或‘人工智能谬误’等选项,人们会毫不犹豫地将其称为幻觉。
然而,这些术语远没有引起人们的共鸣,也不太可能引起人们对这个问题的关注。一些观察家,包括IBM对该问题的总结的作者,坚持认为,尽管“幻觉”一词不精确,但其使用相对准确,并且具有隐喻意义。
为何会出现AI幻觉?
虽然人工智能幻觉的最终原因尚不清楚,但已经出现了一些潜在的解释。
这些现象通常与设计和测试期间数据提供不足有关。如果一开始就将有限数量的数据输入模型,即使查询依赖于对不同类型数据的理解,模型也将依赖该数据来生成未来的输出。这称为过度拟合,即模型针对某种类型的数据进行了高度调整,但无法适应新的数据类型。模型学到的概括对于原始数据集可能非常有效,但不适用于不相关的数据集。
当模型没有完全考虑词义和语义结构的变化时,其本身也可能是一个问题。矢量编码映射单词和句子结构的不同含义,试图避免这些事件。如果模型不理解同义词所产生的不同含义以及不同的部署方式,其就更有可能给出无意义或不准确的响应。
为什么人工智能幻觉是一个问题?
Tidio的研究对974人进行了调查,发现93%的人认为人工智能的幻觉可能会以某种方式导致实际伤害。与此同时,近四分之三的人相信人工智能能为其提供准确的信息——这是一个明显的矛盾。
每天都有数百万人使用人工智能。虽然ChatGPT可能对许多人而言是一种好奇,或者是一种快捷工作的方式,像许多学生试图将ChatGPT撰写的论文冒充为自己论文的例子,或更多的人与Siri和Alexa交谈,就好像是值得信赖的顾问一样。从家庭维修到医疗建议,用户会求助于这些声音悦耳的人工智能功能。通常,都会得到理性的、精心构建的回应。
但如果不这样做?责任在哪里?与用户一起信任人工智能?开发商没有预见到这些情况?或者根本不存在——可以说漂浮在云中,仿佛不受其所影响的物质现实的束缚?
人工智能的反应有可能影响人类生存的几乎所有方面,从选举到有关大流行等社会危机的信息,再到法律体系。
近一半的Tidio受访者认为,应该为开发者提供更强有力的立法指导方针,确保人工智能运动的傲慢行为不会侵犯人类生存和呼吸的权利。
人工智能平台已经产生了相应的不准确和有偏见的信息。6月,纽约一家律师事务所代表其客户提交了一起航空伤害诉讼的先例,结果证明其完全是由ChatGPT制造的,结果被处以5,000美元的罚款。2016年,Microsoft的Tay聊天机器人开始生成种族主义推文,导致该企业将其关闭。
许多试图使用ChatGPT为其研究收集参考资料的医学研究人员也表达了担忧。《自然》杂志《精神分裂症》八月份的一篇社论对ChatGPT倾向于制作虚构论文来支持一项主张的行为提出了严厉的控诉。在五次提到可能与抗精神病治疗相关的特定大脑区域中,有三次完全是捏造的——这是人工智能幻觉的一个相当元的例子,因为精神病可能会导致真正的幻觉。
一项更大规模的研究发现,在ChatGPT生成的178条参考文献中,28条根本不存在,41条不包含准确的DOI。
如果人工智能用于实际医疗,医生经常需要返回文献来寻找罕见或难以诊断的疾病的答案,这些类型的结果实际上可能是生死攸关的问题。
这些发现表明,LLM尚未准备好进行可能对现实世界造成严重有害影响的应用。
如何减轻人工智能幻觉?
Tidio的研究发现,近三分之一的LLM用户直观地发现了人工智能幻觉,近三分之二的人最终交叉引用了结果来确定。后一种趋势在短期内可能是一种可取之处——大多数人都知道,不要盲目地相信这些平台。
人工智能平台开发人员继续使用此类人工输入来训练其模型。一种已经显示出前景的方法被称为过程监督。OpenAI现在正在使用其来完善ChatGPT。过程监督不是简单地奖励正确答案(称为结果监督),而是微调用于实现结果的逻辑中的每个步骤。
其他研究建议扩大这一范围——将对反应的分析进行众包,从而以指数方式提高人类对人工智能系统的反馈水平。当然,这可能会很混乱。人类很容易有意无意地提供不准确的信息,就像其倾向于纠正错误一样。偏见仍将是一个持续存在的问题。
在更广泛地使用人工智能平台之前,使用更广泛的数据集也有助于减少幻觉反应。如果模型熟悉广泛的数据,那么当面临挑战其能力的问题时,就不太可能失败。并且这些数据集应该不断更新,确保模型敏捷并不断主动学习。
确保偏见和事实核查机制从一开始就融入并积极维护,也有助于确保答复的保真度。因此,积极激发模型产生幻觉,然后尝试对其进行逆向工程,可以揭示其最初发生的原因。2023年5月的一篇论文中引入的大型语言模型幻觉评估(HaluEval)基准试图做到这一点,并教会模型识别自己的幻觉。这是一个棘手的命题,因为追踪LLM的逻辑可能非常具有挑战性。
人工智能幻觉有好处吗?
一些人认为,人工智能的幻觉可能并不总是一件坏事,尽管其可能会导致错误的结论,但也可能会导致不同的思维和概念之间以前未知的联系,然后这些联系可以被人类研究。
这在创意领域可能特别有用。艺术家、建筑师和游戏设计师也许能够利用机器的奇怪输出,并将其转化为实用的创新:新的视觉模式、建筑效率、复杂游戏系统中的情节曲折。
这些现象,最终可能对日常用户和开发人员也有帮助。
尽管如此,当我们探索人工智能前沿时,仍需保持高度谨慎。对机器生成的幻象的好奇已经渗透到我们的日常生活中,这是很自然的,但我们必须确保下一个数字海市蜃景不会将我们带入深渊。