本文来自极客网,作者:小刀。
多年来,谷歌搜索基本没有大的变化,但最近却增加了新AI功能。谷歌的目标很明确,它不想错过AI浪潮,想与微软、OpenAI竞争。
遗憾的是,谷歌新推出的AI Overview远远称不上完美,它输出的结果不精准,谎话连篇,甚至能逼疯用户。例如,AI Overview建议用户用胶水作为披萨配料,建议食用石块获得营养。严重的错误已经影响到谷歌声誉。
全球有20亿人依赖谷歌搜索,AI Overview提供的信息不可靠,后果当然恶劣。虽然其它AI聊天机器人也会抽疯,但公众对谷歌的苛刻并非无理取闹,他们希望谷歌搜索更负责一些。
谷歌AI,持续水逆
在过去一段时间,谷歌AI产品多次遭受抨击。例如,2023年2月谷歌推出Bard,与ChatGPT竞争,虽然吹得极厉害,但它提供的信息同样错漏百出。
年初时谷歌推出Gemini,它可以生成图片,也可以变成用语音控制的数字助手。推出没多久便有用户发现,Gemini不愿意生成以白人为主角的图片,它对历史人物的描述也严重不准确。
错误如此之多,如此之连续,绝对不是偶然,要么是AI技术存在缺陷,要么是谷歌技术实力被夸大。金融分析师则认为,投资者向谷歌施加太大压力,逼迫谷歌加快创新速度,结果导致推出的产品不够成熟。
Investing网站分析师Thomas Monteiro称:“现在的谷歌别无选择,企业必须快速前进,即使跳过几个步骤也再所不惜。”
AI搜索,任重道远
谷歌新闻发言人Lara Levin认为,AI Overview提供的大多查询结果是高质量信息,并且还附有链接,用来扩充内容。她还说,报告中提及的问题大多都出自非常规查询,或者是人为操纵的案例,未来谷歌会继续优化系统。
自2022年ChatGPT获得成功之后,谷歌努力将AI融入自家产品矩阵。问题在于,大模型是用海量线上数据训练的,这些数据充斥着虚假错误信息。
虽然面临诸多困难,谷歌仍然一往无前,最新推出的AI Overview是一个里程碑,它整合了Gemini模型,与搜索捆绑在一起。
按照设计,AI Overview可以处理复杂查询,比传统搜索效率更高。虽然谷歌高调宣称将AI Overview与搜索整合好处多多,但现实却离宣传有很长一段距离。
AI Overview建议用户在制作披萨时加入无毒胶水,因为它可以防止奶酪流动。为什么会给出如此荒诞的建议?因为11年前有人在Reddit发帖,以开玩笑的口吻建议这样做,AI完全无法识别它是不是玩笑,居然当真了。
还有,AI Overview建议用户每天要吃一块石头,摄取维生素和矿物质,这一谬论源自一篇讽刺性文章。
谷歌搜索追求的是关联性、可信度、实用,AI Overviews不只没有帮上忙,还破坏了搜索。
AI幻觉,难以根除
AI出现错误并不稀奇,这就是所谓的“幻觉”,它将错误、虚拟信息当成正确。出现幻觉是训练数据存在缺陷、算法不完美、误解情境造成的。
数字营销公司Chelsea Digital的CEO Mike Grehan认为,从本质上讲,大语言模型就是根据过去看到的东西对未来进行统计预测,所以“废话进去、废话出来”的情况仍然存在。
AI Overviews相当于给传统搜索结果做总结,然后将总结反馈给用户。在输出答案时,它免不了收集一些恶搞信息、玩笑,所以很容易输出一些似是而非的东西。
出版商、网站不喜欢AI Overviews,因为它提供长长的摘要信息,然后将网站链接放在最后,用户极可能没耐心看到最后,点击链接。
有人认为,虽然AI Overviews不完美,会出现错误,但大多时候是正确的,它远比普通人聪明,而且响应速度很快,还有,即使现在不完美,未来也会变得接近完美。
真是这样吗?纽约大学教授Gary Marcus认为,许多AI企业都在兜售“美梦”,说准确率将会从80%提升至100%,但是大家要明白,达到80%的准确率相对容易,向AI喂入更多数据就行,但最后20%却充满挑战,这部分可能也是所有流程中最难的。
Gary Marcus称:“你需要做出一些推理,然后还要做决定:这些信息真的有意义吗?信息来源可靠吗?你必须像人类一样检查信息真假。老实说,只有AGI才能做如此复杂的工作,现在的AI不行。”
与Meta人工智能主管Yann LeCun一样,Gary Marcus也认为依靠现在的大语言模型无法创造出AGI。
如果AI Overviews提供的是错误答案,谷歌应该负责吗?按照美国1996年制定的《通信规范法》,谷歌不属于出版商,不必为第三方内容负责。
制定法律时,美国没有将AI生成的搜索结果信息考虑进去,AI Overview受不受法规约束没有定论,因为很难判断AI Overview内容是不是谷歌创作的。(小刀)