谷歌大脑科学家:大脑是AI研究的灵感来源 AI没有边界

2018-03-01 09:03:56 来源: 网易智能
0
分享到:
T + -
他认为智能是一种范围,在我们实现真正的人工智能之前,不要试图把它限定在一个特定的边界上。

谷歌大脑科学家Hugo LaRochelle:不要为AI划定边界

本文系网易智能工作室(公众号smartman 163)出品,此篇为AI英雄人物第63期。

选自:Gigaom 编译:网易智能 参与:nariiy

本期对话嘉宾是谷歌大脑的研究科学家、机器学习专家、副教授Hugo LaRochelle,他专攻计算机视觉和自然语言处理领域的深度神经网络。

人物观点:

智能的概念是难以捉摸的,有一个现象我们称之为人工智能效应(AI effect),即每当我们达到人工智能的新水平时,指人工智能在某一特定任务上有优异表现,我们通常会认为这不是人工智能。

智能并不是黑人或白人的区分,它实际上是一个范围,在实现真正的人工智能之前,我不太愿意把它限定在一个特定的边界。

我对人类大脑研究的这十年

问:首先从您的角度和理解给我们讲讲什么是机器学习和神经网络?

Hugo LaRochelle:机器学习是计算机科学与人工智能的重要分支领域,我们的兴趣在于设计能够让机器学习的算法或程序,并且这是基于我们希望机器能够主动获取知识,而不是通过人工编码来习得知识,这就是机器学习,有很多不同的方法可以让机器学习了解世界,学习如何完成某些任务。

在机器学习中,有一种基于人工神经网络的方法,这种方法更接近于我们的大脑,趋近真正的神经网络和真正的神经元,人工神经网络是受动物中枢神经系统启发的计算模型,某种意义上说,这些算法可能与真正的生物神经元工作机制尚存有差距,但我想,很多机器学习研究者,尤其是深度学习领域的研究者从中获得了启发,即大脑是真正的生物机器,它正在执行一些算法,并且想要知道这个算法是什么,因此,大脑在我们设计自己的人工神经网络中的功能机制是什么的时候,我们试图从中获得灵感,同时将机器的工作原理以及其与生物神经元的不同之处考虑在内。

在人工神经网络中,有一个基本的计算单元,就是人工神经元,你可以这样想,例如,我们有连接到视网膜的神经元,所以,在机器上我们有一个神经元可以连接到计算机上一些图像的像素值,并作为输入,在人工神经网络领域,很长一段时间以来,我们有这样的神经网络,其中大部分是单层神经元——因而多个神经元试图检测不同的模式,比如说,图像是我们可以在十年前或更早的时候以成功的方式进行训练的最复杂的人工神经网络,当然也有例外。

但是在过去的十年里,设计学习算法方面已经有了发展,其被称为深度神经网络,这些神经网络具有多层神经元结构,就像我们的大脑有各种各样的大脑区域彼此相连,比如说,光线如何在我们的视觉皮层中流动,它如何从视网膜流向大脑皮层的各个区域,在过去的十年中,人们在设计学习算法方面取得了很大的成功,这些算法都是基于多层人工神经元的人工神经网络,这是我在过去十年里一直在做的研究。

问:人类基因组大约有725 MB数据量,但其中的大部分我们与地球上的植物以及其他生命共享,如果你关注赋予人独特性的那部分,可能是10MB,这是否意味着实际上可以创建一个AGI(通用人工智能)?

Hugo LaRochelle:也许我们可以在生物学和人类智力之间建立平行关系,我并不是生物学方面的专家,以至于能够做出这样的表述,但我想,在我研究的方式中,不仅仅是看到我们是智能生物的事实,以及我们的智力本质上来自我们的大脑,也不仅仅是从大脑中获得一些启发,我主要是从数学或统计学的角度设计学习算法来推动我的研究,试着思考这个问题的合理解决方法,以及我如何用类似像人工神经网络的方式来实现它,我相信一些人对我们在多大程度上能从生物学中获得直接的启发有更好的想法,但是除了我刚才描述的那些高层次的启发,我的工作动力和研究方法从数学和统计学中获得了更多的灵感。

问:你如何定义“智能”?

Hugo LaRochelle:至少在思考我们想要达到的目标方面,有两种思想流派,其一是我们想要达到最接近完美的理性,还有另一种方式,就是要获得一种与人类相似的智力,从某种意义上说,作为人类,我们可能不会真正地在计算机或其他人之间做出区分,比如说,在与机器交谈或观察它完成某一特定任务的能力的时候。

很多机器学习都是建立在模仿人类的基础上的。从这个意义上说,我们收集数据,这些数据,如果被标记出来,通常是由另一个人或其他团体产出。我认为这两个定义并不是不相容的,而且似乎共有特征部分本质上是一种计算形式,并不是你自己编写代码就能够很容易地编码。

与此同时,有趣的是,也许有证据表明这种智能的概念是难以捉摸的——有一个众所周知的现象我们称之为人工智能效应(AI effect),即每当我们达到人工智能的新水平时(人工智能在某一特定任务上有表现),我们通常会认为这不是人工智能,而我们现在感兴趣的另一个新问题是人工智能。国际象棋有点像这样。在很长一段时间里,人们会把下棋当作一种智力的形式。但是一旦我们发现我们可以很好地把它本质上当作一个树形搜索程序,然后一些人就会开始说,“那不是真正的人工智能。”现在有了这种新的分歧,下棋不再是人工智能了。因此,要确定这一点是非常困难的。目前,我想说的是,每当我想到人工智能任务时,其很多功能本质上都是在某一特定任务上匹配人类的表现。

“我们不要试图为人工智能划定边界”

问:你认为图灵测试作为一种基准是否有价值?

Hugo LaRochelle:我认为这是有价值的,从一定意义上说,如果我们为目前没有解决的方案定义一个特定的图灵测试,我认为尝试是有价值的,之后测试成功实现。我认为它有一定的价值。

在某些情况下,人类也可以做其他事情。所以,你可以说,如果有人与AlphaGo比赛,但最初并没有被告知是AlphaGo——尽管,有趣的是,有些人认为它使用是最好的棋手都不一定会自然地考虑到的策略,你现在可以认为如果你和AlphaGo对抗,你将很难确定这不仅仅是一些围棋专家,至少很多人是不会这么说的。但是,当然,AlphaGo并没有真正对自然图像进行分类,或者它不会与人对话。但是,我肯定会说,试图解决这一特殊的里程碑对于我们针对越来越多的智能机器的科学研究是有用的。

问:图灵规则是“你是否能分辨出与你对话的是一台机器还是一个人?”图灵认为如果有超过30%的测试者不能确定出被测试者是人还是机器,你就测试通过,为什么不是50%呢?

Hugo LaRochelle:我认为智能并不是黑人或白人的区分,就智能或非智能而言,它实际上是一个范围,骗过某一个人,不仅仅指真正的人类,使其将机器误判断为人类,这意味着什么?思考这个问题是一件很有趣的事情,我想我不确定我们是否到达这个程度,如果我们可以实现到这种程度,那么这可能更像是评估本身的一个缺陷,从某种意义上说,推测来看,这很像我们现在有的对抗网络(adversarial networks)或者对抗样本(adversarial examples),所以我们有方法可以让一个特定的测试产生误判断或无法识别的结果,我想这可能是对这一点的反映,但是,我认为智能是一种范围,在我们实现真正的人工智能之前,我不太愿意把它限定在一个特定的边界或者我们必须会面对的障碍上。

问:那您如何理解图灵测试的真正意义?

Hugo LaRochelle:通常,如果你和一个非机器学习或人工智能领域的人交谈,他们经常会问,“我们离能够像我们那样处理很多事情的人工智能尚存在多大的差距?”这是很难预测的问题。所以通常我说的是我不知道。

有一点我觉得我们不经常追溯的是,如果你看的一些人工智能研究人员的引述,在当下人们对人工智能的前景感到非常兴奋的时候,很多这些引述实际上是类似于今天我们听到的一些事情。所以,知道了这个,并且注意到我们不难想出一个特定的推理任务,我们并不能像我们想象的那样简单地解决它,我认为这只是表明我们在实现一个真正的人工智能方面还有很长的路要走。

人类什么时候才能建立起通用人工智能?

问:你是否相信,当算法方面以及处理器上有了足够的进步,以及拥有数据收集后,我们走在一条实现通用人工智能的直线道路上?

Hugo LaRochelle:这是我所怀疑的,至少有一个或者可能是很多技术突破,不仅仅是计算机变得更快或者收集更多的数据,这是必需的。举个例子,我认为这不是计算能力的问题,而是这样一个问题,“我们没有合适的程序,我们没有合适的算法”,这种算法能够匹配像我们人类那样用很少的、引用的数据或人类经验来学习某些概念的能力。举个例子,如果你给我看同一物体的很多图片,我可能会在更多的图片中辩识出那个物体,仅仅是一些那个物体的图片而已,也许只是一张,如果你给我看关于某个家庭成员的照片,接着你给我看更多关于你家庭合影的照片,我可能会认出那个人,且不需要你一次又一次地告知我,还有很多其他的东西我们可以从很少的反馈中学习。

所以,从本质上来说,这是从任务样例中产生学习算法,此外,更一般地,只从更高层次的角度来看学习是什么,承认它在不同的尺度上起的作用,并且有许多不同的学习过程是并行的,而且是错综复杂的,因此,我认为研究这些学习过程应该如何在不同的尺度上发挥作用,可能是一个我们更需要处理并找到一个解决方案的问题。

问:有些人认为,在我们没有理解意识之前,我们不能实现“通用人工智能(AGI)”,意识是一种我们拥有的独特能力,你是否相信意识在某种程度上是人类智能的关键?

Hugo LaRochelle:我还没有真正地考虑意识与建立人工智能的概念之间的关联是什么,但是,我想说的是,注意力(attention)的概念,例如,能够集中注意力在各种事情上或者增加寻找信息的能力,这些都是很明显的组成部分,目前,我想我们有一些相当成熟的解决方案,以一些限制性的方式,而不是更一般的方式运行,我认为信息搜寻(information seeking)仍然与检索(exploration)和强化学习(reinforcement learning)的概念有很大的联系,这仍然是一个我们需要解决的很大的技术挑战。

所以,关于我们意识的这些方面,我认为,其是程序性的,我们需要找出一些算法来实现这些,或者学会从经验和数据中提取这些行为。

问:你之前提及,从少量数据中学习,你认为,这是人类擅长无监督学习(unsupervised learning)的一个例子吗?孩童时期你会学到"这是一只狗,这是一只猫",这是监督学习。但是你说的是,“现在我可以在低照度下识别它,我能从后方认出它,我能在远处认出它。”人类在做的是一种无监督的学习吗?

Hugo LaRochelle:从定义上讲,无监督学习是一种非监督式学习。这是一种不使用监督学习的极端。举个例子,有一个程序,一个学习算法可以,例如,看数百个字符的图像,并且能够理解这些字符图像中的每一个像素都是相关的。它们是更高级的概念,解释了为什么这是一个数字。例如,有笔划的概念,一个字符实际上是笔划的组合。因此,无监督学习将尝试能够仅仅从观察图像、从这些像素之间存在相关性的事实中,它们看起来不像一个随机的图像,而且与任何随机的像素组合相比,像素以一种非常特别的方式排列,提取出更高级的概念,如笔划和手写字符,在更复杂、更自然的场景中,这将是识别不同的对象,而不必对每个对象进行标记,因为真正解释我看到的是有一些不同的物体有特定的光和场景相互作用等。

这是我研究过的一些东西,我确实认为人类正在做一些这样的事情,但同时,我们也可能是处于婴儿阶段,我们在与我们的世界互动,我们在探索它,我们很好奇。这就开始了,离纯粹的无监督学习还有一点距离,更接近于我们的强化学习(reinforcement learning),所以,我可以实际操作我所处的环境,从中我可以了解它的属性,什么是事实,什么是这个环境的特征?

还有一种更受监督的学习方式,我们在自己婴儿时期能够看到,并没有被纯粹的监督学习所覆盖,这指代能够交流或者从他人的反馈中学习,所以,我们可能会模仿别人,这更接近于监督学习,但我们可能代之会得到一些措辞上的反馈,所以,如果父母说做这个或者不做那个,这不是一个模仿,这更像是一个交流,关于你应该如何调整你的行为,这是一种弱监督学习的形式,所以,如果我让我的孩子做作业,或者我给他一些关于如何解决特定问题的说明,这不是一个演示,所以这不是监督学习。这更像是一种弱监督形式的学习,即便如此,我认为其在我们在已知的运行良好的系统中使用的并不多,目前人们使用的是对象识别系统或机器翻译系统等。因此,我相信,这些不同形式的学习,比一般的监督学习更少受监督,这是我们仍有很多进步的研究方向。

问:关于人工智能和通用人工智能如何运作方面存在多种观点,其中一方面是就像物质世界依据简洁的法则运行,磁力是这样,电力也是这样,因而我们希望智力同样是由我们可以习得的简洁法则来掌控,在另一个极端把大脑看作是几百个弱人工智能(narrow AI)的聚合,其能够给予我们至少是一般智能的一个很好替代,你同意吗?

Hugo LaRochelle:我们可以举一个例子,我认为在某种程度上对学会学习(learning to learn)和元学习(meta learning)的定义是,作为人类,我们是经过多年进化的结果。我想,进化是一种适应的形式。但在我们的生命周期内,每个个体也会适应其特定的人类经验。所以,你可以把进化看作是一种类似于元学习的过程以及我们每天都在个人生活中学习的过程。

但即使是在我们自己的生活中,我认为我的大脑以很明显的方式处于适应的过程中,在我从一个婴儿成长为一个成年人的时间段中,以无意识的方式进行,我在以理性方式适应的过程中有许多方法,以有意识的方式,这依赖于我的大脑去适应能够感知我的环境,我的视觉皮层正在成熟,因此,学习有多层结构并相互依赖,所以,我认为这是一个相当高的水平,但我认为这是一种有意义的方式,一种元学习的形式,基于这个原因,我认为研究如何学习学习系统,在这里有一个有价值的过程,其告诉我们如何拥有更多的智能代理和人工智能。

我对AI持乐观态度,并且已经在与它和谐相处!

问:在媒体对人工智能的报道中,即使没有引入杀手机器人,只是讨论人工智能对就业和工作的影响,就会产生很多恐惧,你对未来的预测是什么?人工智能最终是否会像所有其他技术一样提高人类的生产力?还是会对人类造成巨大的伤害?

Hugo LaRochelle:我把它看作是将我的日常生活自动化的一个机会,这样我就可以用我生命中的这部分时间去做更有创意的事情、或者是让我感到有热情去做的事情、又或者是我更感兴趣的事情。正因为如此,很大程度上,我认为人工智能对人类来说是一项极好的技术,我注意到更好的机器翻译所带来的益处,其有助于让世界上不同的地方沟通互联,让我能够在学习和旅行中体验不同的文化。或者怎样才能使某些卫生工作者的工作自动化,这样他们就可以把更多的时间花在那些可能没有得到应有关注的更难的案例上。正因为如此,我个人的动机是让生活中我们希望自动化的部分实现自动化,我对人工智能的前景感到相当乐观。

而且潜在的,当涉及到工作的时候,我们甚至可以想象自动化让我们获得更好的专业能力,当涉及到学习课程过程中的自动化,其中也产生很多机会,我们现在有很多在线课程,甚至是我在教学的时候,就在YouTube上上传了很多资料让人们学习。

从本质上讲,我发现我在工作中所做的日常教学是重复性的,我可以单次记录下来然后重复利用,转而将我的注意力集中在花时间在学生身上,并确保协助每个学生消除其对特定主题的错误理解,因为学生普遍的心理模型难以把握,他们对这门课的某一方面会产生怎样的错误理解,通常也难以预料。因而,你实际上希望花时间与该学生交流,并希望这种互动能够覆盖更多的学生。我认为这是一个例子,我们可以考虑将教育的某些方面自动化,从而让每个学生接受教育方面获得一种支持,并且让每个人能够拥有有意义的职业生活。因此,总体上我是乐观的,很大程度上是因为我看到了自己未来使用人工智能和开发人工智能的方式。

问:我们已经有了令人难以置信的颠覆性的技术,如工业机械化、畜力替代人力、电气化等,人类都使用这些技术来提高自己的生产力,从而提高收入,这就是人们生活水平不断提高的整个过程,每一份新工作,每一件我们创造的东西,机器都会比人类更快地学会它,那样的话,每个人都发现他们可以被替代,这有可能性吗?以及如果这真的发生了,那将会是一件坏事吗?

Hugo LaRochelle:对于整个社会来说,我认为这是一个很好的问题,也许因为我的日常工作就是与人工智能领域取得进展所面临的当前挑战有关,我想我们触及这个问题稍微有些早,因为科技领域尚存在很多挑战,这似乎并不是仅仅让计算机运行更快、收集更多数据的问题,因为我看到了这些挑战,而且我看到科学界在过去几年里一直存有错误之处,而且过于乐观,如果说我们曾能够到达那个程度的话,在关于我们将多快能够到达那里的问题上,我倾向于不过分乐观以及多一点保守。

就其对社会而言意味着什么,如果这种情况发生的话,即我们在本质上可以实现普遍的自动化,遗憾的是,我不是一个经济学家,我觉得自己尚不能够对这个问题提出有一个有意义的看法,但我认为我们基于事实去讨论它是很好的,这就是为什么这是一个很难讨论的问题,因为我们讨论的是一个假设的未来,在很长一段时间内可能不会实现,但是,只要我们能够理性地讨论可能发生的事情,我就没有理由不去讨论这个问题。

问:体验某事物(experiencing something)与知晓某事物(knowing something)是不同的吗?如果事实上这是不同的,那么我们就必须造出能够让其获得体验的真正智能的机器,而不是让其仅仅知晓某事物。此外,体验事物意味着你回到意识这个棘手的问题上面。我们不仅是地球上最聪明的生物,而且可以说我们是最有意识的生物。这两件事在某种程度上是紧密联系在一起的。

Hugo LaRochelle:我想,除非这种体验与你对这个世界的了解相矛盾,否则我认为它不会影响什么。我认为,这在一定程度上是我们在开发人工智能的前进过程中所遇到的一个挑战。我们已成功开发出的许多人工智能系统都是在模拟环境中开发的,比如下围棋。在这种情况下,对于一个桌面游戏来说,在电脑上模拟它很容易,因为你可以把游戏的所有规则都写出来,这样你就可以把它们放进电脑里模拟了。

但是,对于像在真实世界的体验和操纵物体这样的体验,只要这种模拟体验与真实世界的体验有所不同,触摸真实的物体,我想我们将会面临一个挑战,那就是将我们在模拟环境中积累的智能迁移到现实世界中去。这在一定程度上与我们无法快速学习算法的能力有关。相反,它们需要数以百万计的重复或例子来真正接近人类所能做的。想象一下,让一个机器人从操纵那个机器人的人那里得到数以百万计的标记,并准确地展示如何做每件事。这个机器人可能本质上在相当长的时间内学习地很慢,无法真正地在合理的时间内学习任何有意义的行为。

问:你认为迁移学习(transfer learning)在人工智能方面会产生哪些作用和意义?

Hugo LaRochelle:我们看到了ImageNet数据集所带来的成功,如果你在ImageNet数据集上训练一个对象识别系统,它确实与计算机视觉领域的深度神经网络和卷积神经网络的变革有关。事实证明,由这些数据源训练的模型可以完成很好地迁移,达到数量惊人的路径。这极大地促进了计算机视觉的革命。但这是一种相当简单的迁移方式,我认为有更精细的迁移方式,你需要先把你知道的东西拿出来,然后稍微调整一下。如何做到这一点而不忘记你之前学过的东西?所以,理解这些不同的机制需要一个共同工作的终身学习的形式,能够在一项又一项的任务中积累,并用越来越少的经验去学习新的任务,我认为这是目前我们没有处理得很好以及需要去做的事情。

问:是什么让你对研究保有兴奋?

Hugo LaRochelle:这是个很好的问题。当然,在我的日常研究中,我们如何能够积累知识,机器如何积累知识,以及如何在很长的一段时间内,有序地学习一系列任务和能力,累积起来,我认为这是一件非常重要的事情。这让我开始思考学会学习,因为我对于一些观点保有质疑。实际上,一旦你学会了一个又一个的能力之后,做这件事的过程,以及把它做得更好的过程,事实上,我们做得更好可能是因为我们也在学习如何学习每一项任务。

问:你目前的工作围绕着什么?

Hugo LaRochelle:正如我所提到的,我对元学习(meta learning)和学会学习(learning to learn)很感兴趣。我已经开始在这个主题上发表文章了,我仍然在思考关于元学习方法的各种新想法。同时也从弱信号(weaker signals)中学习,而不是在监督学习环境中。例如,从一个个体那里学习措辞反馈(worded feedback)是我还没有开始具体研究的问题,但我现在想了很多,也许这些是我肯定会鼓励其他年轻研究者去思考、学习和研究的方向。(完)

关注网易智能公众号(smartman163),获取人工智能行业最新报告。

谷歌大脑科学家Hugo LaRochelle:不要为AI划定边界


点击查看《AI英雄》专题,往期内容一步直击!

丁广胜 本文来源:网易智能 责任编辑:丁广胜_NT1941
分享到:
跟贴0
参与0
发贴
为您推荐
  • 推荐
  • 娱乐
  • 体育
  • 财经
  • 时尚
  • 科技
  • 军事
  • 汽车
+ 加载更多新闻
×

最强大脑记忆女神自爆记忆力训练过程

热点新闻

猜你喜欢

阅读下一篇

返回网易首页返回科技首页
用微信扫描二维码
分享至好友和朋友圈
x