网易首页 > 网易科技 > 网易智能 > 正文

智能菌 | 担心人工智能无法无天?我们要厘清它的伦理问题

2017-03-17 07:42:40 来源: 智能菌
0
分享到:
T + -

undefined

编者按:网易智能频道推出话题栏目《智能菌》专注人工智能引发的社会热点每周三、五推出。本文为第20期,讨论人工智能引发的伦理道德问题。转载请联系我们获得授权公众号Smartman163)。

出品 | 网易智能

策划 | 定西

编译 | 晗冰

现在人工智能堪称无处不在。从我们决定买哪一本书,到预定哪一趟航班,从是否能够找到合适的工作,到是否能够获得银行贷款,甚至于治疗各种疑难杂症,我们生活的方方面面都有着人工智能的影子。

关于我们的生活,很大程度上已经可以由人工智能这种复杂的软件系统来自动决策。毋庸置疑,在诸多科技界企业的推动下,人工智能技术在过去几年中取得了令人惊讶的巨大进步,而且业内很多人也相信人工智能会让我们的生活变得更好。

这种趋势不可阻挡,自然而然。整个社会也在为人工智能初创企业注入大量资金,而包括亚马逊、Facebook以及微软等高科技公司都针对人工智能开设了新的研究实验室。现在的软件就是人工智能,这种说法现在来看并不夸张。

很多人预计,人工智能对社会的冲击甚至要大于互联网。当被问及在这个千变万化的世界中,人工智能技术将要为人类带来何种影响时,很多技术专家毫无悬念地将问题集中在道德方面。

如何保证公平受益?

undefined

随着人工智能的普及,机器系统在高风险决策领域的作用越来越重要——从信贷、保险再到第三方决策以及医疗保险、假释等问题。未来,人工智能技术将代替人工决定谁会获得重要机遇,而谁又将被抛弃,由此将会引发一系列关于社会公正的问题。

譬如在生物医学领域,人工智能有着惊人潜力。人工智能系统有助于分析基因组学、蛋白质组学和新陈代谢组等的实验数据,收集分析电子病历和相应的健康数据。利用聚类分析技术能够帮助科学家判断新综合征,而模式识别技术能够将疾病与疗法相匹配。但是由于现有的医疗条件的不平衡,会导致少部分人才能够从先进诊疗技术中受益。

另一方面,人工智能,特别是机器学习技术的完善往往取决于训练数据。微软研究人员最近指出,当采集的数据存在偏差时,用这种数据所训练的人工智能系统也会存在相应偏差,其产生的模型或者结果势必会复制并放大这种偏差。在这种情况下,人工智能系统所作出的决策将会产生差别效应。而这种不公平要比人为偏见和不公要隐晦的多。

“现在的挑战是让每个人都能够从中受益。”——谷歌研究主管Peter Norvig

Peter Norvig是谷歌研究主管,也是机器学习领域的先驱人物。在他看来,大数据推动下的人工智能技术获得了前所未有的成功,但关键问题在于如何确保这些系统能够真正有效地改善整个社会,而不仅仅只是让那些控制人工智能系统的群体收益。“通过实践证实,人工智能在执行各种任务时非常有效,从图像识别,到自然语言理解和撰写,再到疾病诊断,人工智能都发挥出了重大作用,” Peter Norvig指出,“现在的挑战是如何确保每个人都能够从中受益。”

如何审查机器运行?

科学家之所以会担忧人工智能引发公平问题,最大的根源在于现有软件的复杂性意味着我们无法准确衡量人工智能系统为什么要这样做。现在的人工智能技术主要基于机器学习,但对于人类来说,其并不能真正搞清楚这种系统到底是如何运行的,所以我们不得不信任它。从根本上说,问题关键在于找到新的方法去检测和审查人工智能的运行。

undefined

哈佛法学院互联网法学教授Jonathan Zittrain则认为,关于人工智能潜在的危险是随着计算机系统变得越来越复杂,会使审查面临越来越多的阻碍。他指出,“我担心随着系统的复杂性和紧密耦合性越来越高,人类的自主性会越来越少。如果‘我们设定规则又忘记了规则’,我们会对系统如何进化感到懊悔。在那种情况下,甚至于伦理道德都无从考虑。”

而北卡罗来纳州杜克大学人类和自动化实验室主任Missy Cummings则发问,“我们如何确保这些系统是绝对安全的?”其曾是一名海军女飞行员,而现在则是无人机专家。

现在业内普遍意识到人工智能需要进行监督,但没有人清楚该怎么做。Cummings坦言,“目前我们还没有一种行之有效的普遍方法。没有类似测试人工智能系统的行业标准,类似的技术难以被广泛实施。”

“没有类似测试人工智能系统的行业标准,类似的技术难以被广泛实施。”——Missy Cummings,杜克大学人类和自动化实验室主任

当然,在一个快速发展的社会中,监管机构往往都在扮演者一个追赶者的角色。在刑事司法系统以及医疗保健等关键领域,很多公司已经在探索使用人工智能来进行决策,譬如做出是否假释的决定或者是诊断疾病。但是这样问题来了,如果将决策权交给机器,我们就有可能失去控制。谁能保证系统在各种情况下一定是正确的?

微软研究院的主要研究员Danah Boyd则认为。不少写入人工智能系统的价值观存在诸多问题,而恰恰是这部分人如何对系统负责。很多监管机构、社会大众以及社会学者都希望人工智能技术能够实现公平,具备伦理道德,但这种希望都是虚无缥缈的。

如何应对工作替代?

此外,人工智能普及也会对人类自己的本职工作产生根本影响。人工智能能够让机器人从事更加复杂的工作,从而取代更多的人类劳动者。譬如苹果和三星手机代工厂商去年就宣布,将使用机器人代替6万名工人,这在当时引起了轩然大波,惹得人人自危。无独有偶,福特的德国科隆工厂也让机器和人在一起工作。机器人的广泛使用会导致人类对人工智能技术会产生过分依赖性。

undefined

例如现在很多医疗机构已经在诊断和手术中引入更多的机器人,特别是机器人在疑难手术中能够表现出更精湛的医术,这就可能使经由历史积累的医学技能和知识裹足不前,进而使社会变得更为脆弱。而据麦肯锡的全球研究报告,到2025年,30%的公司审计工作将由人工智能完成。人工智能将取代许多人的工作,其中也包括医师、财务经理以及公司高管等收入较高的中产职业。

在很多工厂,人类已经开始和机器一道工作——有人认为这种被取代感会对工人精神产生影响。

此外,自动化程度的加大不仅影响到人类就业,也会对人类心理健康产生连锁反应。生化伦理学家、奥巴马前医疗顾问伊泽克尔·伊曼纽尔(Ezekiel Emanuel)指出,“如果说什么能赋予人们生活的意义,主要有三个方面:有意义的关系,热情高涨的兴趣以及有意义的工作。其中有意义的工作是一个人建立身份认同的重要因素。”而失业率高的地区,民众自杀、滥用药物以及罹患抑郁症的风险也会成倍增加。

如果有效进行监督?

人工智能的迅猛发展势必会产生各类社会问题。很多行业内人士已经意识到,相关问题的出现会导致对人工智能伦理方面的需求越来越多。麻省理工学院技术部专门从事法律道德的专家凯特·达林(Kate Darling)指出,“公司肯定会遵循市场规律,这并不是坏事。但我们不能为了市场利益而放弃道德。”

达林指出,诸如谷歌等大公司已经成立了道德委员会,专门监督人工智能系统的开发和部署。这源于三年前,当时谷歌以6.5亿美元的价格收购了英国的人工智能创业公司DeepMind。DeepMind创始人提出的交易条件之一就是谷歌要成立一个人工智能道德委员会。这似乎标志着负责任的人工智能研发新时代正在到来。但事实上,谷歌对于道德委员会成员组成讳莫至深,实际上该委员会发挥的作用也相当有限。

同样,去年9月份,Facebook、谷歌以及亚马逊还成立了一个联盟,旨在开发解决人工智能相关的安全隐私问题。该联盟近日还宣布苹果也将加入其中。此外,OpenAI还致力于推动人工智能开源,从而让利益为全社会所共享。谷歌研究主管Norvig认为,“机器学习必须要公开,我们所有人只有通过开源代码才能够普遍受益。”

然而,在科技公司主动公开之外,还需要为外部人士揭开人工智能技术的神秘面纱。对于没有计算机科学学位的人来说,真正理解人工智能决策非常困难,更不用说审查或规范这些技术。一些业内人士认为,如果没有对人工智能技术的理解,诸如律师、决策者和一般公众就很难真正理解或想象人工智能带来的风险。

这是一个可以让人工智能发挥更大效能的时代。Zittrain认为,“在道德方面,我们的工作并不是担心机器人会取代我们,而是考虑如何使用技术来帮助人类进行反思和决策,而不是完全被技术取代。”

编后:《智能菌》将一如既往的为大家提供新鲜AI话题的深度分析,期待你的关注。

人工智能真的会引发一系列道德问题吗?欢迎跟帖留言,我们会从跟帖中选出一部分网友,赠送网易精美台历/笔记本/跟帖本。

声明:本文为网易智能工作室独家稿件,转载请在文首注明来源“智能菌”、作者及本文链接,违者必究

undefined

关注网易智能菌(微信公众号:smartman163),获取专业人工智能资讯与AI报告。

?

王超 本文来源:智能菌 责任编辑:丁广胜_NT1941
分享到:
跟贴0
参与0
发贴
为您推荐
  • 推荐
  • 娱乐
  • 体育
  • 财经
  • 时尚
  • 科技
  • 军事
  • 汽车
+ 加载更多新闻
×

国台办:李明哲因涉“颠覆国家政权罪”被依法逮

热点新闻

猜你喜欢

阅读下一篇

返回网易首页返回科技首页
用微信扫描二维码
分享至好友和朋友圈
x