网易首页 > 网易科技 > 智能硬件 > 正文

微软邓力:深度学习在认知领域的革命还有多远?

0
分享至

网易科技讯10月19日消息,昨天上午,由中国自动化学会联合新智元举办的世界人工智能大会在北京举行。会上,微软人工智能首席科学家邓力发表了演讲,现场解读了深度学习十年发展史,并展望了人工智能未来十年的发展机遇与突破。

邓力称,人工智能是一大串的技术,包括逻辑推理技术、机器学习技术等,在机器学习的技术又包括深度学习的技术。机器学习所解决的问题,是要用数据跟统计的方法或者神经网络的方法来解决现实生活中的任务。在机器学习里面最重要的一块就是深度学习,它也包括一大串的技术加上应用。目前,深度学习在语音和图像等方面的应用让这两块领域取得了大规模的进展。

对于深度学习,邓力着重强调了自己的看法。他说,深度学习有三个要点,一是它包括好几个不同层次的非线性变换;二是如何优化这个多层次的系统,尤其是深层优化是一个特别难的问题,算法上10年前端到端的优化学习问题开始得到解决;三是抽象性是深度学习最重要的精华,尤其是在语音识别和图像识别之外的认知领域应用。

遭遇移动互联网危机的微软,在如今的大数据时代复苏。关于微软在AI上的战略发展,邓力解释到,当时他和所在的微软团队于2012在IEEE上发表了一篇文章,成为深度学习在语音识别方面的经典工作,这篇文章通过深度神经网络,使得大规模的语音识别取得进展。这也奠定了微软在语音识别领域的方法,深度学习自此被引入语音识别,目前这种方法现在还在用。

关于深度学习的局限性,邓力称,目前深度学习的局限性主要是几乎所有成功的方法都需要有非常大量的数据,这种数据一定要输入输出全部匹配好,不匹配好的话,没有任何方法能够做得非常成功。下面还有一大串的局限,比如Black box,很多研究在破这个黑箱,走出现有神经网络的框架,要能够把以前大家所做的深度Bayes的方法加上一大串其它的方法整合到一起,就有望解决黑箱的问题。同样重要的一点是,神经网络现在非常难把知识自动扩大,就像小孩长大,他的知识一步步扩大,但是现在人工智能还没有自主学习的能开。目前,我跟很多研究人员交流,怎么能够把基于神经计算的深度学习跟符号逻辑连在一起,你把逻辑关系搞清楚就能解释所有的东西。(小羿)

以下为邓力在世界人工智能大会上的演讲实录:

主持人:接下来有请微软人工智能首席科学家邓力上台演讲。

邓力:感谢大家! 贵宾们好,朋友们好。 我今天首先要感谢组委会给我这个机会,在这里向大家介绍微软的一些深度学习研究,也感谢组委会专门给我这个题目,叫我讲一下十年深度学习的历史。正像你们刚才听到Yoshua Bengio教授讲的一样,微软在深度学习的开始阶段就做了非常大的启动。今天继续向大家介绍一下在这之后我们很多的进展。最后分享一下对未来的展望。

组委会告诉我,今天的观众有相当多的投资人士,以及技术人士,从业界来的。所以我向大家介绍两礼拜前《财富》杂志的一篇文章,讲了深度学习一部分的历史。趁此机会也向大家介绍这篇杂志文章里面给的深度学习的定义。从技术的角度从科学的角度来讲,我想再补充一些材料,使得大家对深度学习跟人工智能的看法有一些更深入的了解。

这是《财富》杂志所讲的定义,这个定义基本是准确的。比如说定义人工智能。它包括一大串的技术,包括逻辑推理技术,包括机器学习技术,在机器学习的技术又包括深度学习的技术,在这里面主要的一块是机器学习。机器学习所解决的问题,是要用数据跟统计的方法或者神经网络的方法来解决现实生活中的任务(tasks)。在机器学习里面最重要的一块——深度学习,它也包括一大串的技术加上应用。虽然在这个文章里面只讲语音应用和图像应用,实际上还有一大串自然语言处理的应用。在这个演讲里面,我把这些新的应用和新的技术向大家介绍一下。

刚才《财富》杂志的文章讲的深度学习还是从商业的方面来讲,大家能够看得懂。要是看Wikipedia,它讲的深度学习的定义比刚才的文章更深一点。我向大家介绍一下Wikipedia的定义,深度学习有三个要点,第一,这是一般的定义,不单单是神经网络,它包括各种各样的其它方法。它的精髓——好几个不同层次的非线性变换。第二,因为有好多层次,就出来了一个非常重要的问题——怎么样来优化这个多层次的系统。在浅层学习的模型里面,这个优化问题不是那么严重,因为比较容易优化。但是一旦有深层之后,这个优化就成为一个非常难的问题。这也是其中很大的一个原因为什么在90年代、80年代当时深度神经网络并没有能够产生很大的影响。当时数据不够,计算能力也不够,而且当时算法也不够。差不多十年之前端到端的优化学习问题开始得到了解决——并不是说理论上得到解决,我只是说在实际算法上得到了解决。第三,这点更重要,尤其在语音识别和图像识别之外的更重要的认知领域的应用。在这种更高层次的应用情况下,深度学习更重要的是,因为它有不同层次的表达,它就能够把抽象的概念进行层次化的表征。在我下面讲的应用中我想特别是把第三个要点向大家描述得更深刻一点。头两个特性一般是大家在深度学习上看得比较清楚的,而且很多的文献讲得比较多。第三点的抽象性确实是深度学习的最重要的精华。

关于深度学习十年的历史, 我从《财富》杂志的文章里面抽取出来一张表。理论上开创性的工作,刚才王老师讲到神经网络可以追踪到好几十年前。我只讲讲近代的历史。90年代第二次人工智能浪潮,主要也是由神经网络突破引起的,当时的突破只是在概念上的突破,神经网络的一些算法成为非常主流的算法,一直延伸到现在。但是应用上的大规模突破只是到最近Yoshua Bengio教授讲的前五年之前才开始。

这是一篇非常重要的文章,多伦多大学差不多20年前发表的文章“Wake Sleep”算法 --- 怎么让神经网络做非监督的学习。当时90年代中第二次神经网络热潮往下降,一直做不起来。大家往深层次的模式来想,那时候这种方法也没有成功,但是对我有了非常大的启发。 我当时在加拿大任教做时程上的深层次的神经网络研究,在1994年写了这篇文章。 我当时做语音识别做了相当长的时间,一直比不上统计概率的模型。我跟研究生和同事写的这篇文章,做了非常强的分析,跟Yoshua Bengio一篇文章有点类似,当然你的网络层次非常深以后,学习的困难就变得越来越大。当时用到语音识别上面没成功。但是给我们很大的启发,到底要往哪个方向走?这是20年前的事情。在这之后,因为大家都认识到神经网络成功的机会不是很大,更重要的原因是当时统计的模型发展得非常快,另外还有SVM机器学习的模型在那时候实际应用的效果远远超过神经网络,当时神经网络就慢慢像刚才Yoshua Bengio教授讲那样削弱了。

之后不久我从大学跳到微软公司,当时我的一个团队做了深层的动态的Bayesian网络,相对比较容易解释。但是有一大串的问题。十年前在深度Bayesian网络问题现在已慢慢得到解决。深层次模型的最早的一个突破还得归功于Geoffrey Hinton的一篇文章《A Fast Learning Algorithm for Deep Belief Nets》。这篇文章确实成为深度学习的开始之一,现在大部分的深度学习模型是一层一层网络不断从下往上。这篇文章正好相反,不是往上,更注重从上到下生成数据。有点像“做梦”,你做梦的时候可以产生一些梦想。做的“梦“产生一些数据,你在醒的时候就可以把你所看到的东西能够抽象出来总结出来,成为你感知的对象。经过反复的上下反复的过程,就可以产生一种非常巧妙的模型,而且对这种模型来说这篇文章介绍了非常巧妙的学习方法。我当时看到这个方法以后觉得这和我的深度Bayesian语音识别模型会有什么关系。当时没看很懂,想探索怎么把这种模型跟我们的深度Bayesian语音识别模型结合起来。当时请他到我们的西雅图共事一段时间。2009年底搞了一个NIPS讲习会,将深度学习各种不同的方法在语音识别上的应用总结一下,那时候已经有初步的结果出来,但是结果不是特别好。所有的深度学习在语音识别上面都是聚集在非常小的数量上面,大概1 million的数据量,非常局限。当时大规模的神经网络威力还没显示出来,这之后我们在微软花了大概一年多的时间发明了一些很有效的方法,使得DBN,深度神经网络加上隐马尔可夫模型,三个不同的技术整合到一起就成为这组架构。这种神经网络同时跟其它的机器学习,人工智能方法联合在一起,很快让深度神经网络在工业界上面的语音识别产生巨大的影响。 这有点像AlphaGO,大概有三种不同的方法联合在一起,所以怎么样把不同的人工智能和机器学习方法同深度学习方法整合到一起确实是非常重要的。

当时我们在学术界 (我所在微软研究院,也算学术界工业界的一个混合单位)合写了一篇文章,三年多前发表的,成为深度学习在语音识别方面的经典工作。80%的内容和方法在这个文章当中写到的,现在工业界还一直在用。文章讲了深度神经网络对语音识别产生的影响,怎么把不同的机器学习方法包括深度神经网络的方法整合起来,使得大规模的语音识别得到进展。

当我们微软公司把深度学习用到语音识别取得大规模成功的时候,微软大老板Rick Rashid 2012年在天津举行的一次会议上当场演示技术,第一次向世界宣布深度神经网络是一个非常强大的技术。他用深度学习做语音识别演示,几乎没什么错误,因为他非常配合,帮我们采集了非常多的speaker-dependent的数据。大规模的场合演示语音识别几乎没任何错误。另外,用机器翻译的方法,把识别出的英文文字翻译成中文,再用语音合成的方法产生中文语音。他用英文讲,他的中文声音就出来了,而且中文合成的声音跟自己的声色非常相像,当时产生很大的影响。《纽约时报》的记者到微软采访了我,也采访了Hinton,我们讲了一些我们合作的事情,在《纽约时报》报道。最重要的写的一条,我们不约而同跟这个记者说,这么好的一个技术能够在演示上这么成功,几乎没有任何专利的保护。记者就写到了报纸上,这个可能跟工业界引起兴趣有点关系。

之后我们写了很多论文,2010年到2012年写了不少,之后IBM、GOOGLE、科大讯飞、百度也用类似的方法。科大讯飞确实做得比较早,我这里面不展开讲太多,识别自然语音的错误率在1993年几乎每个字都会错掉。美国的DARPA第一次做这方面的研究是,那时候数据没采集多,1993年之后,DARPA每次投资语音识别的研究基本1/3到1/4资源是用来采集有标注的数据,之后语音的大数据有了。这也是为什么深度学习在语音识别上是第一个成功的例子。

感谢胡郁总裁寄给了我当时在科大讯飞访问的照片,那时候我在2010年到2012年之间访问了科大讯飞,微软亚洲研究院,台湾中央研究院和中国其他地方讲深度学习的方法并进行学术讨论。我至少走了十多次。到科大访问就有三次。可以这么说,科大讯飞的深度学习技术确实在中国是非常早就已经开始应用,跟这些讨论有很大的关系,不在这里展开太多。深度学习从加拿大和美国到中国有很有趣的历史,具体的过程刘庆峰总裁跟胡郁总裁他们有更多的材料。

2012年—2014年,微软、GOOGLE出现一大串的产品,还有亚马逊的Echo,以及讯飞和百度的产品,也包括Dragon和siri和XBOX产品一整套。全部用深度学习的网络取代以前一大串浅层的语音识别技术。

这两年(2012-2014),微软花了很多的精力,特别是我们的同事和北京研究院的同事合作,把在天津我们老板演示的用深度学习实现的演示完全产品化,大家用Skype就可以直接做语音对话。两个月前杨澜带了一个团队到我们公司来拍摄人工智能电影的时候,专门试了Skype Translator,是五个小时人工智能的纪录片的一部分。 她用唐诗来试我们的系统,结果很有意思,每个字都翻译得很对,但是整个句子翻起来诗意就没了。语音识别字对字是好的,但是它不能够真正达到人的智慧,还没到有诗意的那个程度。

下面再讲一下最近两年之内深度学习的进展,首先语音识别的错误率继续下降,包括讯飞、IBM、百度、GOOGLE,包括我们的公司的工作。最近几年的进展更使得去年图像识别的错误率降到低于人类的水平,这是微软北京研究院今年做的,今年国内的两个团队做的比这个错误率低的更多。还有看图说话也有很大的进展。

最近一两年的AlphaGO ---文章是在2016年发表,工作大部分是在2015年做的,最后产生最大的影响是在AlphaGO今年3月份打败世界围棋冠军,这里面很大的一个因素就是把神经网络Deep reinforcement和增强学习结合起来,用来加速Monte Carlo Tree Search ,三者结合得到非常显著的成果。

人工智能对话机器人也取得成果。这一段话是我从《财富》杂志文章中截取出来的。现在很多公司都在发展客服机器人,而且还有很多其它的应用。这种应用在20年前大家都有了,我在大学当教授的时候就有很多类似的项目。 AT&T当时帮助客户怎么付帐,那是唯一一个很成功的例子,其它的影响并不是很大。今年到去年差不多两年之内,大家看到AlphaGO的成功,而且看到深度学习在语音识别和图像识别上面的成功都感觉到时间已经到了,这个重要的应用时代已经到了,我不想展开太多,大家看文章可以看到更多的例子。

这种应用在学术界跟企业界还不是讲得特别多,但是要看这篇文章,微软领导在这篇文章中讲了一段话,这段话确实包含了我们微软两年之内的工作。我有一个团队做了相当多的工作。

还有一个很大的应用,Deep Learning最近两三年内有很多公司,主要是我们公司和IBM。大家看这篇文章后就可以感觉到深度学习现在从原来感知上面的人工智能,语音识别和图像识别已经进入到真正商业应用的领域里面。从研究的角度来讲,自然语言处理就是在一年之内得到飞速的进展。我昨天早上刚从烟台“中国计算语言学大会”回来,机器翻译已经完全采用深度学习的方法,它的性能、精确度大大超过20多年发展起来的基于统计的学习方法。IBM 20年前第一次把统计学习的方法用到机器翻译,当深度学习在语音识别成功之后,2011年、2012年深度学习就开始用到机器翻译上面。深度学习在阅读理解、问答等等应用上的复杂性要比其它那些应用到语音识别的深度学习方法大得多,主要因为模型不太一样,有新的alignment 问题。一直到去年大家开始看到深度学习发展出一些非常巧妙的方法,已经战胜了传统20年发展的方法,当然它的错误率的降低和语音识别比起来还是没那么显著,但是它的历史也就两三年时间。现在整个机器翻译的领域已经完全转向深度学习,这个信息特别在中国自然语言处理方面比美国更显著。

前两天烟台的“中国计算语言学大会”上有一大串的演讲,每个题目都是跟深度学习相关的--- 深度学习跟机器翻译、深度学习跟问答、深度学习跟语法分析、深度学习跟情感分析,等等。我对中国的人工智能的希望是非常之大的。现在有哪些新的技术?有sequence到sequence的学习,有注意力模型,一个礼拜之前在《Nature》上面刚发表了DNC方法,做研究的话可以往这边看。

未来展望,关于应用,昨天的闭门峰会讲的比我讲的还多,我就不讲太多了。研究跟技术我讲多一点,关于人工智能应用,在四五天前美国白宫出了个报告,Thomas Dietterich教授讲,他也参与了这个报告的一些写作,美国白宫政府发出来这个报告,做应用的一定要好好看一看,它的最终结论对投资界影响非常大,跟中国推广的人工智能方向是相符的。Deep Learning作为一个非常大的标题列出来。今天早上跟Thomas Dietterich谈了一下,他承认对于很多做传统的人工智能的专家来讲确实是一个Surprise。

Automated Science。把所有的物理科学材料用机器看一遍能不能得出牛顿定律?像以前伽利略用望远镜看到星星的运动,经过科学的研究,总结出来一些星球运行的定理,牛顿根据这些材料总结出牛顿定理,能不能用人工智能做出来?这是很多人想的问题。金融方面,人工智能火起来,做金融的找过我,我不便讲太多,这个领域大家都在看。

从研究和技术方面来讲,为了让大家看到将来的趋向或者将来有影响的研究和技术,我们要先看现在的深度学习和AI的方法有些什么样的局限性?要把局限性看懂以后,你们就可以知道用什么方法来克服它们。很大的一个局限性是,现在几乎所有成功的方法都需要有非常大量的DATA,这种数据一定要输入输出全部匹配好,不匹配好的话,没有任何方法能够做得非常成功。下面还有一大串的局限,比如Black box,很多研究在破这个黑箱,走出现有神经网络的框架,要能够把以前大家所做的深度Bayes的方法加上一大串其它的方法整合到一起,就有望解决黑箱的问题。黑箱问题对我很重要,虽然有的研究人员觉得黑箱问题不是那么重要。同样重要的一点: 神经网络现在非常难把知识自动扩大,就像小孩长大,他的知识一步步扩大,但是现在的人工智能对这个能力几乎还没往这方面想。我跟很多研究人员交流,怎么能够把基于神经计算的深度学习跟符号逻辑连在一起,你把逻辑关系搞清楚就能解释所有的东西。

下面用一张图解释最近的想法和工作,怎么样能够把逻辑推理70年代的人工智能跟现在的深度学习、自动学习能力非常强的神经网络结合到一起。现在这里有两个结构,下面一个是输入句子的句法树状结构。上面的树状结构是语义结构。用人工智能的传统方法来做,要写很多rules,但是要用神经网络方法来做的话就可以学习。用于统一两者的一个方法是建立一个等价关系。图状结构可以进入到神经网络。学习完了之后反向回到新的图状结构,能够把树状结构(或者图状结构)还原出来,这个过程中的推理逻辑就可以自动等价与在神经网络上面实现。

相关推荐
热点推荐
女人在过夫妻性生活时,为什么总发出声音?医生:大多数人不了解

女人在过夫妻性生活时,为什么总发出声音?医生:大多数人不了解

皮皮讲文
2024-01-02 10:36:17
台湾女生的性感,从不会藏起来!露腰、露胯、露内裤,时髦又养眼

台湾女生的性感,从不会藏起来!露腰、露胯、露内裤,时髦又养眼

潮人志Fashion
2024-04-24 18:30:12
莫兰德辽篮还会用他吗

莫兰德辽篮还会用他吗

宝哥精彩赛事
2024-04-25 12:42:23
查尔斯主持公道,授予凯特王妃荣誉勋章,力证她就是下一任王后

查尔斯主持公道,授予凯特王妃荣誉勋章,力证她就是下一任王后

红袖说事
2024-04-24 15:50:25
胜利了!人民币升值!日韩印越,亚洲货币溃败,避险资本逃往中美?

胜利了!人民币升值!日韩印越,亚洲货币溃败,避险资本逃往中美?

喜欢农家生活的阿繁
2024-04-24 21:50:07
梦幻西游:传闻有人囤了28万亿梦幻币,变现后能把梦幻买下来了

梦幻西游:传闻有人囤了28万亿梦幻币,变现后能把梦幻买下来了

小三说梦幻
2024-04-23 19:40:17
4.25周四CBA季后赛赛事分析预测:浙江广厦主场能否再胜广东男篮

4.25周四CBA季后赛赛事分析预测:浙江广厦主场能否再胜广东男篮

小鬼头体育
2024-04-25 12:55:34
下雨天,女同事在我家留宿一晚,半夜她却突然躺在我旁边

下雨天,女同事在我家留宿一晚,半夜她却突然躺在我旁边

缓缓说事吖
2024-04-25 07:05:50
主动发声!文班亚马引爆联盟,仅凭一己之力,恐令勇士分崩离析

主动发声!文班亚马引爆联盟,仅凭一己之力,恐令勇士分崩离析

体育晓二
2024-04-24 22:57:49
战犯表现!波尔津吉斯今日正负值-32 队史季后赛第6低

战犯表现!波尔津吉斯今日正负值-32 队史季后赛第6低

直播吧
2024-04-25 10:56:27
有些尴尬真的让人面红耳赤,这是我们不掏钱能听的吗?

有些尴尬真的让人面红耳赤,这是我们不掏钱能听的吗?

户外阿崭
2024-04-25 05:52:25
1万6千多辆合规网约车退出营运,司机:下辈子再跑网约车

1万6千多辆合规网约车退出营运,司机:下辈子再跑网约车

用车指南
2024-04-25 10:01:05
Skip:热火文化没毛病&我喜欢 我还是搞不懂塔图姆

Skip:热火文化没毛病&我喜欢 我还是搞不懂塔图姆

直播吧
2024-04-25 10:56:25
女朋友屁股太大,到底有多刺激?

女朋友屁股太大,到底有多刺激?

户外阿崭
2024-04-24 16:00:11
老乡鸡都这样了,餐饮今年这种情况,你还敢继续开店吗?

老乡鸡都这样了,餐饮今年这种情况,你还敢继续开店吗?

叮当当科技
2024-04-25 06:57:31
中国电动车,大量堆积在欧洲港口,美欧嘲讽:产能过剩的恶果!

中国电动车,大量堆积在欧洲港口,美欧嘲讽:产能过剩的恶果!

小蘑菇壹号
2024-04-24 16:16:50
梦中情车大力仑炮交付  长城炮携手大力仑共同探索祖国大好河山

梦中情车大力仑炮交付 长城炮携手大力仑共同探索祖国大好河山

光子星球
2024-04-24 17:25:34
不寒而栗!从53一路跌到退市,让我对股市产生了前所未有的敬畏!

不寒而栗!从53一路跌到退市,让我对股市产生了前所未有的敬畏!

资本百科
2024-04-02 08:27:58
纪云浩被免职后续:学历疑造假,官方介入调查,已删除相关动态

纪云浩被免职后续:学历疑造假,官方介入调查,已删除相关动态

180°视角
2024-04-24 13:30:37
央视网视频:靠力气赚钱心里才踏实!网友:下辈子不来了

央视网视频:靠力气赚钱心里才踏实!网友:下辈子不来了

故衣谈历史
2024-04-24 14:23:23
2024-04-25 13:58:44

科技要闻

雷军:希望小米SU7能成为苹果用户购车首选

头条要闻

男子被上门女技师触摸隐私部位要求"加钟" 平台回应

头条要闻

男子被上门女技师触摸隐私部位要求"加钟" 平台回应

体育要闻

足智多谋的哈姆,温水里的青蛙

娱乐要闻

心疼!伊能静曝儿子曾被狗仔追到洗手间

财经要闻

先涨价再降价,特斯拉“打脸”只用20天?

汽车要闻

这灯效我能看半小时 奥迪Q6L e-tron有备而来

态度原创

游戏
旅游
教育
本地
公开课

用火力战胜恐惧!一款可以用枪支、炸药的后室游戏

旅游要闻

“宝总同款”?布林肯入住上海和平饭店总统套房

教育要闻

新航道2023年春季班火热报名中...欢迎资讯当地新航道学校~

本地新闻

荒野求生贝爷都得靠边站,真求生还得看留子

公开课

睡前进食会让你发胖吗?

无障碍浏览 进入关怀版
×