坏小子兴许还会招女孩子的喜欢。但是人工智能学坏了,会怎么样呢?
大家都在讨论,人工智能会不会控制人类,会取代多少工种,有可能还会让包括你我在内的一大票人丢掉工作。但是这些都是大命题,现在虽然很多人都在讨论,但是好像这一天的到来还有点远。至少明天,不会一大早起来,你的公司都被人工智能占据了。
.
张爱玲说过一句话:“人生是一袭华丽的袍子,里面爬满了虱子。”上面那些大的“悲剧”可能性已经说的够多了。我们今天来看看,人工智能可能带进来的一只虱子。或许不那么让人崩溃,但是可能让你很恶心,像吃了一个苍蝇一样。
挑选餐馆、酒店的时候,我们都会去大众点评之类的网站看下评论怎么样。因此呢,这些公司甚至一家小店都会很看重用户的评论。这些企业需要堤防着虚假恶意的评论,友商们收买的水军,以及哪天不小心因为各种原因惹恼的一个客户,请求他撤下差评。
萌萌的外表,无辜的眼神,看起来不会骗人的样子
这些事情,人工智能要来干会怎么样呢?人工智能像疯了一样写负面评论,往你的身上泼脏水。你都来不及换件衣服迎接新一波的脏水。
想象一下,似乎这是件并不困难的事情。人工智能的潘多拉魔盒撬开后,公司的公关部打了个盹儿,满世界都是你的负面评论了。那样的话,睡着觉都得开个天眼,看看这个世界有没有诋毁的洪水扑面而来。
上面当然是商家要面临的烦恼,那么从客户的角度看呢?
今天,我们看评论区的时候,都会有选择地去看。笨拙如我,有时候也会碰到一些高人指点,什么评论是可信的,什么是假的。假如人工智能再来插一杠子,把水搅得更混,网络上本就脆弱的信任是不是要慢慢蒸发了,荡然无存或者聊胜于无。
据BI报道,芝加哥大学的研究人员写了一篇论文,介绍了人工智能如何开发复杂的评论,不仅现代检测工具检测不到,也能成功骗过不知情的读者。
举个例子,这是一段评论:“I love this place. I went with my brother and we had the vegetarian pasta and it was delicious. The beer was good and the service was amazing. I would definitely recommend this place to anyone looking for a great place to go for a great breakfast and a small spot with a great deal.”(我爱这个地方。我和哥哥一块去的,我们一起吃了素食意大利面,味道很好。啤酒很好,服务也让人很舒心。如果你想去个不错的地方,有着丰盛的早餐,我会推荐你去这里。/最后半句有语病,不译。)
审查起来也没什么毛病。虽然最后半句有些奇怪,但是我们平时看到的评论区里,也常常是错字不断、语句不通,所以这不算什么大的问题。总的来看,它看起来就像一个正常人说的话。
事实上,这条评论是由一种叫递归神经网络(recurrent neural networks)的深度学习技术炮制出来的。
就问你怕不怕?
不光是长得像真的,研究者还写道,这些评论对真正的交易来说也是有效的。也就说是说,不仅表面看起来能骗得过真实用户的眼睛,而且能让用户觉得像真实评论那么有用,觉得这一条走心的平价。实际上这只是人工智能“走芯”的平价而已。
想象一下,有一天,你打开某个点评网站,被一堆谎话连篇的评论洗了脑,然后屁颠屁颠地,去了一家让人倒胃的饭店吃了顿大餐,到一个荒凉透顶的景区领略下美景,回家后气急败坏,一通怀疑自己“你是不是傻?”人工智能的机器人要是看到了,说不定都乐开花了。哦,对了,未来的机器人说不定真的会像人一样,笑得那么灿烂。
如果人工智能可以这么无耻切不受控制的话,那么大众点评等网站的评论参考价值就会大打折扣。亚马逊、阿里这样的电商也会受到一些连累,不过好在他们还可以检查评论客户是不是真的买东西了。
研究人员想到一个办法去克服这种情况。
假评论虽然看起来像是真的,但是依然有着细微的差别。计算机程序可以检测出来这种差别,如果它可以测算描述中涉及到一些字符的分布规律。假评论为了以假乱真,会看重流畅度和可信度,因此一些较为细微的特征,就像字符的分部规律可能就会被忽略掉。
研究者写道:“训练中产生的信息损失,会在最终呈现的文本中显示出来。这样就会导致机器产生的文本与人类的文本上,在潜在的字符分别规律上,产生统计学意义上的差别。”
芝加哥大学计算机科学教授Ben Y. Zhao
听起来是不是有点绕?不过呢,这也不是万全之策。芝加哥大学计算机科学教授Ben Y. Zhao表示,它可以让很多虚假评论更不容易过审,但是更昂贵的计算机和更强大的神经网络,就可以绕开这种检测。
道高一尺魔高一丈,想作弊有的是办法。“你不能阻止那些信心坚决、又有实力的攻击者。”Zhao表示。
不过好在,Zhao表示,现实世界中还没有看到任何用人工智能声称恶意评论的例子。
其实,不光是在线评论,未来说不定,整个博客都会说一个机器自动生成的,让人真假难辨。再广泛一点,机器又会炮制怎样的假新闻,操纵舆论或者愚弄公众?被耍了一通之后,发现元凶是一个机器人,这又该让谁去负责,在案件中也好,也普通的事故中也罢。还有,人工智能充当主力的信息战争又会是怎样一个糟心样子呢?
Zhao希望提醒人们注意到这种威胁,也希望Yelp这类的点评网站和亚马逊这样的公司开始考虑怎么防御。
从科技伦理上说,我们确实有被技术奴役的风险。不过,作为了一个乐观主义者,我相信人类整体可以驾驭技术,作为生命个体,勤奋上进又取法得当的话,也可以更多地享受人工智能的便利,要超过人工智能的威胁和压迫。
不过,即便是利大于弊的技术,也总会来带一些蚊虫叮咬式的烦恼。说不定,未来被人工智能耍着玩,并不是什么稀罕的事情,就跟现在时不常接到的诈骗电话一样随处可见。