2019年7月30日,知识智能高峰论坛暨清华大学(计算机系)—中国工程科技知识中心“知识智能联合研究中心”(下称联合中心)年度报告会在清华大学廖凯原楼会议厅举行。
以下是人工智能研究院院长张钹院士在题为“知识在人工智能的位置”报告上的演讲内容,文摘菌进行了不改变原意的整理:
张钹院士作题为“知识在人工智能的位置”的报告
我们对人类大脑和智能了解很少,凭什么有可能做人工智能呢?做法很简单,这需要我们“大胆假设、小心求证”。
大胆假设
假设之一体现在人类智能,人脑中的活动是可以用符号来进行描述的。人类的智能行为,是受到脑中智能符号处理这样一个过程控制的,这就是所谓的物理符号系统,它是智能的充分和必要条件,这是一个非常大胆的假设,提出这些假设的人主要都是认知心理学家,他们假设人类的智能行为都能清晰的表达出来,这使得人工智能进入到符号联结的时代。
这个假设对于人类理性思维是很正确的描述,人类理性智能来自于何处?人类理性主要来源于两个方面:一是先前的知识与经验,二是推理能力。名医为什么医术那么高超,就是因为他有丰富的医学知识和临床经验,第二就是熟练严谨的推理能力,从病人的症状推理到他可能发生的疾病,所以用先前的模型描述人类的理性智能是很正确的,但是,这个假设有遇到困难,主要表现在以下方面,知识是人类理性的基础,但是知识和经验很难自动获取,不确定性等使得第一代人工智能受到挫败,知识的获取、表达遇到障碍。
第二个假设——亚符号系统。深度学习、机器学习来源于此,人类的智能行为就是因为神经元的活动,这种活动我们应该建立怎么样的模型?我们应该用什么样的模型模拟人工神经网络的计算过程?40年后人们找到合适的算法,这就是现今我们讲到的深度学习。
深度学习解决了两大问题:
1、对于原始的信息输入没有要求,早期的输入需要人工标注和一部分先验知识;
2、最终性能提高了很多。
深度学习改变了人工智能的面貌,推进了人工智能的发展,但是深度学习也是有缺陷的,深度学习做出的系统缺陷很大,危险性很大,机器尽管能识别不同的物体,但它本质上并不认识这个物体,机器只有感觉,没有感知,在说感知之前有必要先了解一下什么是知识。
什么是知识?机器会瞎说,毫无自知之明?
知识包含四个方面:
1、理性知识:来自于教育、来自于学习、来自于逻辑推理,这一部分知识是可以清晰和准确表达的,这属于“知其然,又知其所以然”的,“we konw what we know”。
2、感性知识:这一部分知识来自人类的感知,这一类知识属于“知其然,不知其所以然”的,一般很难清晰的表达,这一类知识同样重要,那怎么表达?怎么获取?也是现今研究的关键。
3、常识;
4、自我知识。
知识的魅力在于“知道我知道什么”和"知道我不知道什么“,认识自我的不足是智能的重要表现,从这一点看机器还没有上升到认知层面,鲁棒性差,完全没有“自知之明”,会瞎说,因为它完全不知道自己不知道什么。
一个很形象的例子,如果让机器翻译“说你行的人行”这句话,机器翻译的结果可能是:“Talk about the pedestrian line of your profession”完全背离了原意。
怎么样让机器有“自知之明”?到现在为止,人类还没有解决。
人工智能面临两大障碍
所以,目前人工智能遇到两大障碍:
现在的人工智能,只能处理确定性强的数据处理任务,对突发状况的处理仍然漏洞百出,如复杂环境下的自动驾驶,在突发情况下的处理能力仍然差强人意,而我们很难将人类司机的经验传授给机器,人类出生开始就以无监督的学习方式来观察、聆听周围的事物,而机器相比人类是没有生活的,而且它的知识也不会不断地更新,常识知识对智能系统还是很重要。
第二大障碍,将语义映射到符号空间,难免会丢失一部分信息,如何在机器翻译中加入感性的知识也是一大难点和挑战,现今深度学习在有些方面为什么不能和人来抗衡呢?因为人的大脑神经元很复杂,现今用的神经网络都只是简单的模拟,后续的发展还需要进一步向神经科学学习。
如何突破障碍
最后,我们需要知识、数据、算法、算力这几个资源的配合。
●针对第一道障碍,需要智能系统做到随机应变、举一反三,知识在其中发挥着重要的角色,需要在系统中嵌入不确定知识与推理、常识与常识推理。
●对于第二道障碍,需要数据+知识,克服纯数据驱动带来问题。
随后联合中心主任唐杰、首席科学家李涓子、刘奕群和周源分别介绍了智能科技情报挖掘平台AMiner、大规模知识图谱XLORE构建关键技术、群体智能支撑的互联网搜索技术及其应用,以及支持技术预见的多源异构网络数据融合研究的工作。