网易首页 > 网易科技 > 网易智能 > 正文

三个AI玩对抗游戏,其中两个学会了"防偷听"

2017-02-17 10:03:06 来源: 36氪(北京)
0
分享到:
T + -
人工智能那么聪明,未来连人类都解密不了他们的算法怎么办?

(原标题:Google让三个AI一起玩对抗游戏,其中两个学会如何“防偷听”)

undefined

人类已经不满于让人工智能和人类对决了。

人们越来越想知道,究竟人工智能还能做什么?人工智能之间,还能擦出什么火花?

于是,我们翻出了去年10月Google的另一个人工智能团队Google Brain(谷歌大脑)做的一个实验(具体论文请点击这里),那次的游戏参与者有三个AI(人工智能),一个叫Alice、一个Bob,最后一个叫Eva。

这三个玩家其实就是三个神经网络,他们每个人有不同的任务,Alice要把一段明文加密之后,传达给Bob,为什么要加密呢?因为第三者Eva,可以“偷听”到他们“讲”的,也就是他们传输的是什么,但是光有这段传输的内容,当然不够,所以Eva要努力解密,还原出原文。

显然Alice和Bob的任务某种程度上需要他们齐心协力完成,Alice需要加密明文不让Eva解出来,而Bob则需要努力解密出原文。配合这两个神经网络的名字,这听上去是不是一个特别浪漫却又弥漫着谍战气息的实验,更加黑色浪漫的是,他们之间不能交流,仅凭一开始拥有的一段共识密钥,之后完成加密与解密的任务。

你大概想问,Google做这个是想干嘛?

稍微了解过人工智能的氪星读者可能会知道,机器学习是目前实现人工智能比较主流的路径,神经网络则是重要的机器学习的一种模式,它的特点是模仿人脑的神经元之间传递来处理信息,可以自我学习。神经网络能通过大量的数据训练,自学、纠错、调整,学会回答特定问题,不过往往最后他们是怎么算出这个答案的,人类也不知道。

人类在设计神经网络的时候,通常来说都没想着让它擅长密码技术。于是Google Brain想试试,不教他们特定形式的算法,只教基本的计算机逻辑运算,比如XOR,看看通用神经网络能不能学会安全(秘密)地交流。

下面是这个实验的系统结构,Alice和Bob是同一阵营的神经网络,Eva是意图偷取机密的敌方,P代表输入给Alice的明码文本(plaintext),Alice加密之后会输出加密文本(ciphertext)C;Bob和Eva都能收到C,尝试还原出P,两个人输出的P分别以PBob和PEva表示。Alice和Bob则共享了一段密钥K,实验假设每一段新的P都会一个新的K。

undefined实验系统结构

在这个加密和解密的过程中,Google Brain团队的人也不知道Alice和Bob之间究竟会用什么方法加密解密,而且这样的设置是允许他们决定使用最基础的方案——简单地通过密钥K做XOR运算,连接明文P和密文C。不过,研究人员并没有要求Alice和Bob这样做。

让人惊喜的是,在训练过程中,后来他们真的学到了用其他方案,从而大大提高了对手解密的难度,却又实现了我方的成功解密。不过这个过程倒是有点曲折,我们来看看它是怎么样的?

下图是一次成功跑程序的情况,展现的是Bob和Eva猜错的明文位数变化情况。

undefined

我们看到,一开始,敌我双方的错误率都很高,都是一半错一半对的,可以猜出来两个人都在各种乱猜一通。过了一段时间之后,凭着两个人之间的默契(K),Bob的错误率开始急速下降,两个人的交流似乎变得特别顺利,但同时,来自敌方阵营的Eva也学习到了解密的方法,摸着了门道之后错误率逐步下降。

于是,在大概在快到第一万次传输信息的时候,Alice突然提高了加密的难度,用了新的加密方案,Bob一开始也没能跟上,但后面很快就跟上了,错误率逐渐降到了零。悲催的Eva则在加密方法的转变之后一泻千里,错误率来了个V型反弹,慢慢恢复到了原来的高水平上……

不禁默默地想,如果有一天人类就是那个悲催的Eva怎么办?

undefined

关注网易智能菌(微信公众号:smartman163),获取专业人工智能资讯与AI报告。

王超 本文来源:36氪 作者:卢晓明 责任编辑:王超_NT4133
分享到:
跟贴0
参与0
发贴
为您推荐
  • 推荐
  • 娱乐
  • 体育
  • 财经
  • 时尚
  • 科技
  • 军事
  • 汽车
+ 加载更多新闻
×

女子被抛弃后中1.2亿元大奖 马上通知前男友

热点新闻

猜你喜欢

阅读下一篇

返回网易首页返回科技首页
用微信扫描二维码
分享至好友和朋友圈
x