网易首页 > 网易科技 > 网易科技 > 正文

来!人工神经网络模型最硬核干货 不看后悔

0
分享至

大多数人工神经网络忽略了生物神经网络的尖峰特性,这使得简化底层模型以及诸如反向传播等学习技术成为可能。
但是,这样做是否违背了生物神经网络最核心的原则了呢?
在大多数人工神经网络模型中,激活只是与神经元本身相关的实数值。然而,这并不是生物神经网络中的实态。当一个神经元达到阈值,并且有一个确切的时间点与之相关时,就会发生激活。而这里的前提条件是,在激活之前,其他几个输入激活已经被触发了。以下面这样一个事件驱动的神经网络为例,神经元代表单词“the”,则代表字母“t”、“h”和“e”的神经元需要首先激发,然后才能激活代表单词“the”的神经元。发生这种情况时,就会有激活链接(activation-links)将单个字母神经元的激活与单词“the”的神经元激活联系起来。这些激活链接对应于已被激活的神经元突触。特别之处在于,它们可以将所有激活都限定在输入数据范围内。单词“the”可能在给定的文本中出现数百次,但是激活链接可以精确引用其中的任何一个激活。
在本文中,我将谈一谈激活链接的另外两个重要功能。首先,激活链接可用于表示输入数据中对象(例如单词或短语)之间的关系。在之前的文章《On integrating symbolic inference into deep neural networks》中,我讨论过这一点。然而,当时的方法仍然需要对神经模型进行一些额外的扩展,比如激活中的位置槽(position slots)和突触之间的联系。此外,没有一个简单的方法来为这些关系链制定一个适当的训练机制。其次,激活链接能够使歧义信息在文本中同时被评估。在《On adding negative recurrent synapses to a neural network》一文中,我描述了如何使用二叉搜索树系统地搜索给定文本的不同解释。但是,新的疑问产生了,对于这个评估来说,搜索树真的有必要使用吗?
1 增加关系神经元
在前面表示关系的模型中,我们可以看到位置槽被用来确定每次激活的开始和结束位置,并且突触之间的关系链接(relation-links)被用来确保字母以正确的顺序出现。
如果要去掉位置槽和关系链接,有没有方法将它们表示为规则神经元?因而,我们需要采取的第一步是添加一些神经元来表示字母之间的关系。如下图所示:
这里我们有一个关系输入神经元,仅当神经元“t”和“h”的两个输入字母激活连续发生时,它才会被激活。在前面的模型中,这种关系信息是通过槽位置之间的关系隐性给出的。而现在我们有一个神经元明确地表示这个信息。值得注意的是,激活链接是该表示的组成部分。
由于关系神经元只是一个输入神经元,所以突触不用来计算关系激活的激活值。
到目前为止,我们只有网络的输入层,但是如何将单词“the”的神经元与该输入层进行匹配呢?
我们需要一些方法来取代突触之间的关系。只有一个神经元很难做到这一点,但如果我们拆分神经元,为之前的每个突触添加一个新神经元,会怎么样呢?这些新神经元代表单词“the”的模式中出现的特定输入字母,如“t”。这种网络的模型如下图所示:
蓝色的激活链接来自正向复发性突触( the positive recurrent synapses),这意味着它们最初被认为是完全活跃的。为了保持激活的关系完整性,我们需要确保激活不会任意链接到任何输入。例如,如果单词“the”的各个字母属于不同的单词,这就没有意义。要实现这一点,添加到激活的任何输入链接必须与此激活的其他链接之一共享激活源。如果查看激活“the”-“h”,我们可以看到它有激活“t”、“h”、“the”-“t”和“the”作为连接各个输入链接的共同激活源。通过输入链接,激活“the”-“h”验证输入字母“h”的激活是否存在,激活“the”-“t”是否存在,以及是否存在将这两个输入绑定在一起的关系激活,从而将字母“t”与整个单词的模式相关联。一旦一个单词被识别,另一个神经元就可以代表与前一个或下一个单词的关系。这就是我们识别更大的模式(如短语)所需的。
使用元神经元捕捉激活的动态结构
现在你可能会认为,每个音节、每个单词或每个短语都需要一次又一次地训练大量的神经元和突触,这意味着大量的训练数据。事实上,并非如此。使用《Using meta-neurons to learn facts from a single training example》一文中描述的元神经元,可以用很少的示例训练一个新词。这些元神经元可以捕捉我们激活的动态结构,并将其存储为新的记忆。在这个过程中,新的神经元和新的突触会产生。换句话说,这种机制能够将在“工作记忆”中表现为激活和激活链接的知识转移到由神经元和突触组成的“长期记忆”中。因此,不需要单独的知识库来存储信息。
同时跟踪所有分支解释的传递
当负向复发性突触(negative recurrent synapses)被添加到神经网络的结构中时,神经网络获得了极大的灵活性。这对于许多现实世界的推理至关重要。因为它们能够使网络内产生相互排斥的状态。发生这种情况时,输入数据的可能解释会产生分支。许多传统人工智能研究都关注于搜索这些类型。例如,语法分析树在非常有限的语法域中搜索。问题在于,解析结果不应仅取决于语法信息,还应取决于文本中包含的各种其他信息。此外,歧义不仅存在于句法层面,也存在于语义或语用层面。在之前的工作中,我使用二叉搜索树来找到全局最优解。然而,这种方法存在一些问题。首先,人脑似乎不太可能执行类似的搜索。其次,通过将搜索路径上的权重相加并选择权重最高的路径,在网络本身的体系结构之外发生了一种信息的反向传播,这似乎是不正确的。
那么,另一种选择是什么呢?可以同时跟踪所有这些分支解释的传递吗?这里的前提条件是不能混淆这些不同的解释。因此,在一个分支中推断的激活对另一个分支应该是不可见的。然而,由于链接激活期间需要共同的激活源,因而我们可以简单地检查是否进入了另一个分支。即便有了在不同解释中传递的所有激活,我们仍然需要对不同的解释做出选择和决定,这个决定不一定是二元的,它可能是一种概率。
这种方法的一个很大的好处是,我们现在可以在此位置做出决定。这意味着这些决定应该受到未来结论结果的影响。前面提到的在搜索过程中的信息反向传播在某种形式上仍然是必要的,但有一种更简单、更优雅的方式来实现这一点:简单地使用正向复发性突触来做到这一点。这使得推理链中的早期阶段可以获知随后得出的结论。
举个例子,请看上面的网络图。这里有两个相互排斥的神经元A和B,它们通过抑制性神经元和负向复发性突触相互抑制。现在,如果我们将一个激活输入到输入神经元IN中,我们将在神经元A和B中产生激活。因为这两个神经元互相排斥,所以分支发生时有两组激活,其中激活A或激活B被抑制。从这一点开始,网络将同时产生输入数据的两种相互排斥的解释。这与使用一阶逻辑规则和非单调逻辑进行推理的正向链式专家系统(forward-chaining expert-system)非常相似。当然,这也意味着我们会遇到相同的问题——将这些规则堆叠在一起时出现的组合爆炸。但与基于逻辑的二元系统不同,神经网络凭借其带有权重的突触,为这个问题提供了一个优雅的解决方案。在训练期间,我们可以简单地惩罚被其他更有可能的解释抑制的过度激活。这里的抑制性神经元是分离的,这意味着一旦它的一个输入被激活,它就会被激发。抑制性神经元的目的是防止必须连接所有相互排斥的兴奋性神经元。
与其他神经网络比较
在处理文本或图像数据时,每个神经元需要多次激活,这一点也被其他神经网络体系结构(如LSTM,长短时记忆神经网络)所认识到。它们通过重复复制整个网络来解决问题,代价是每个神经元所需的固定激活次数导致了僵化。对于文本中需要处理的所有不同类型的信息,如字符、音节、单词、短语、句子、段落等,缺乏最佳的标记化水平,因此,每个神经元的激活数量需要取决于数据,而不是网络的架构。
处理因果关系的机制
事件驱动的神经网络有一个处理因果关系的简单机制。干预当然是不可能的,因为网络只观察,但它可以得出结论,如果激活A发生在激活B之后,A很可能不是B的原因。这一特点可以用来减轻从A到B的突触权重。
神经网络架构的新型定义方式
大多数神经网络结构是由神经元如何相互连接的拓扑结构定义的。相反,我认为这里描述的神经网络类型应该从一张白板开始,只包含原始的输入神经元。接着,在训练过程中,某些输入神经元会一次又一次地同步激活。这种共同的激活随后可以用来诱导和训练新的兴奋性神经元。随着时间的推移,越来越多的兴奋性神经元在经过训练后,其中的一些会变得有相似之处。所谓相似性,指的是这些神经元共享共同的输入突触,或者与特定的其他神经元共享。这些相似的兴奋性神经元可以与它的抑制性神经元一起聚集成一个元神经元(meta-neuron)。
随后,抑制性神经元充当整个兴奋性神经元组的类别神经元。正如你所看到的,这种神经网络的架构并不是由一组预定义的神经元之间的连接给出的,而是通过不同类型的神经元和突触的规范来定义。
结论
综上,激活链接有两个重要的功能:一是贡献链接输出激活的激活值,二是将激活与输入数据中所呈现的对象进行绑定。
选自:towards data science
编译:网易智能
参与:nariiy
相关推荐
热点推荐
网红变性成功,晒下半身裸照,全网炸了

网红变性成功,晒下半身裸照,全网炸了

牛奶秋刀鱼
2024-04-19 20:22:26
新华社快讯:伊拉克两处军事基地20日凌晨遭袭,伤亡情况暂时不明。

新华社快讯:伊拉克两处军事基地20日凌晨遭袭,伤亡情况暂时不明。

新华社
2024-04-20 06:40:09
重磅!澳洲决定:增加!中国严正回应!

重磅!澳洲决定:增加!中国严正回应!

澳洲红领巾
2024-04-19 14:32:17
真没想到:周杰伦一场演唱会,炸出这么多深藏不露的“富豪”!

真没想到:周杰伦一场演唱会,炸出这么多深藏不露的“富豪”!

杂谈哥闲谈
2024-04-19 19:27:13
笑麻了!北京皇家级四合院4.5亿元拍卖上热搜,评论区笑死我了

笑麻了!北京皇家级四合院4.5亿元拍卖上热搜,评论区笑死我了

童童聊娱乐啊
2024-04-20 02:16:30
“美女书记”落马:从大学老师到县委书记,霸占男下属,贪4000多万,被判无期

“美女书记”落马:从大学老师到县委书记,霸占男下属,贪4000多万,被判无期

天闻地知
2024-04-17 14:11:44
一分钟,看懂华为 Pura70 Ultra 的伸缩镜头

一分钟,看懂华为 Pura70 Ultra 的伸缩镜头

AppSo
2024-04-19 06:41:08
黑龙江形式主义被点名批评!

黑龙江形式主义被点名批评!

娱乐圈酸柠檬
2024-04-19 23:19:59
为搞笑而“强行幽默”:“猫一杯”的浮夸,原本就让人看着很心累

为搞笑而“强行幽默”:“猫一杯”的浮夸,原本就让人看着很心累

黄娜老师
2024-04-17 09:55:30
孕妇拍写真被摸隐私部位?孕妇:粗鲁的伸进去,网友:恶心​

孕妇拍写真被摸隐私部位?孕妇:粗鲁的伸进去,网友:恶心​

三月柳
2024-04-18 14:11:51
配享太庙,你配吗?

配享太庙,你配吗?

混知
2024-04-19 17:04:17
乌克兰称击落俄军一架Tu-22M3战略轰炸机,俄称是技术故障坠毁

乌克兰称击落俄军一架Tu-22M3战略轰炸机,俄称是技术故障坠毁

山河路口
2024-04-19 12:45:49
解放军信息支援部队成立

解放军信息支援部队成立

止戈军是我
2024-04-19 19:53:58
“上海第一主持人”,为你揭秘曹可凡的双面人生

“上海第一主持人”,为你揭秘曹可凡的双面人生

酥酥办公室
2024-04-19 18:11:48
意外!泰山队主教练席迎来久违的新面孔,前申花名帅将现身挑大梁

意外!泰山队主教练席迎来久违的新面孔,前申花名帅将现身挑大梁

评球论事
2024-04-19 20:29:22
卫冕冠军淘汰!林高远4-2力克樊振东,半决赛奖励一个张本智和!

卫冕冠军淘汰!林高远4-2力克樊振东,半决赛奖励一个张本智和!

乒谈
2024-04-19 20:10:59
“一个人可以有钱到什么地步?”

“一个人可以有钱到什么地步?”

涛涛生活搞笑
2024-04-20 07:45:03
你无意撞见过别人什么&

你无意撞见过别人什么&

西莫的艺术宫殿
2024-04-19 09:20:03
AI概念股崩了!英伟达大跌5% 超微电脑暴跌20%

AI概念股崩了!英伟达大跌5% 超微电脑暴跌20%

财联社
2024-04-20 01:38:08
中国通灵部队749局

中国通灵部队749局

韦一同说
2023-05-03 17:24:31
2024-04-20 08:50:44

科技要闻

华为今年最关键的事曝光!Pura 70有新消息

头条要闻

小伙在广州地铁广告上投简历 5天有30多家公司联系他

头条要闻

小伙在广州地铁广告上投简历 5天有30多家公司联系他

体育要闻

米切尔这次对线不会输了吧

娱乐要闻

北影节开幕之夜,内娱女星千娇百媚

财经要闻

新华资管香港的秘密:猛投地产或致巨亏

汽车要闻

风神L7预售 东风汽车北京车展阵容公布

态度原创

教育
旅游
艺术
数码
公开课

教育要闻

沉迷于手机的孩子,看似他们很享受,但是真的快乐吗?

旅游要闻

西宁“下南关”:高原老街的烟火气

艺术要闻

最全展览单元剧透!北京最受瞩目艺术现场100青年艺术季终极解读

数码要闻

让我们回顾25年前微软IntelliMouse Explorer的亮相

公开课

睡前进食会让你发胖吗?

无障碍浏览 进入关怀版
×