影响总统选举结果?FB假新闻问题该如何破?

2016-11-17 16:34:33 来源: 网易科技报道
0
分享到:
T + -

影响总统选举结果?FB假新闻问题该如何破?

网易科技讯11月17日消息,Facebook假新闻问题近来被推向舆论的风口浪尖,被指影响美国总统选举结果。那该社交网络应当如何解决该问题呢?能在不依靠大量人工编辑进行鉴别的情况下解决吗?国外媒体Quarz近日撰文提出了四点建议。

以下是文章主要内容:

全球最具影响力的新闻提供者正面临假新闻问题——它似乎还不知所措。

在唐纳德·特朗普(Donald Trump)出乎意料地赢得美国总统选举后,Facebook在推动他的竞选上的作用成为了公众关注的焦点。该社交网络不仅仅创造了让用户只能看到强化其原有偏见的信息的“回音室”,还传播明显不实的信息,那些信息往往对特朗普有利。想要提高点击量和广告收入的的内容制作者利用了该系统的缺陷,发布假的但病毒性的消息,比如“教皇弗朗西斯禁止天主教徒给希拉里投票!”。该消息在Facebook上获得了数十万次的分享。

如今,Facebook内部在接下来该采取什么应对措施上似乎意见不一。Facebook CEO马克·扎克伯格(Mark Zuckerberg)发表声明称,在该社交网络上,“人们看到的东西超过99%是真实的,”但员工对此并不认同。据Buzzfeed报道,该公司数十名员工在内部成立了秘密的特别小组来打击该问题。另据Gizmodo报道,该公司今年早些时候打造了工具来应对该问题,后来出于谨慎考虑并没有部署使用那些工具,他们担心来自被更多地针对的保守媒体(它们有更多的假新闻)的反应。

周一(11月14日),该公司倒是实施了一项重大的变革:禁止假新闻发布者使用它的广告网络。但它还没有推出新措施来防止来自那些发布者的内容出现在用户的Facebook动态消息(News Feed)当中。尽管这意味着那些发布商来自Facebook的收入会减少,但用户依然对出现在其动态消息的内容感到担忧,该禁令对于缓解他们的忧虑几无帮助。

11月13日,扎克伯格称假新闻问题本身是真相问题,而真相往往难以界定。他暗示道,一家有影响力的私有公司,如为读者确定什么内容是真实的什么是虚假的,那它会面临出现滑坡谬误的风险。

他说,“判断‘真相’本身非常复杂。虽然部分恶作剧病毒谣言很容易就可以揭穿,但更多的内容,其中包括来自主流媒体的内容,往往大意没出错,但搞错或者忽略一些细节。更大数量的报道表达的观点没被很多人接受,因而被标记为不实的,即便它们说的是事实。我相信我们能够为我们的社区找到方法来告诉我们什么内容是最有意义的,但我也认为我们在成为真相仲裁者问题上必须要格外谨慎。”

对于Facebook来说,考虑到要处理的信息量,聘用人工编辑团队来判断“真相”可能不仅仅无法实施,也可能会引发人们的不满,毕竟该公司之前就因为Trending News惹上麻烦。要确保社交网络平台上分享的链接不会传播谎言,同时避免触碰限制言论自由的伦理问题,Facebook或许可以采取以下的一些具体措施。

·打击通过传播谎言谋利的Facebook页面

在此次竞选周期中,通过传播假新闻谋利的Facebook页面出现激增。它们制造误导性的内容,将用户引向有假新闻的外部网站,然后获得引流收入。据《纽约时报》报道,一个为Make America Great的保守派页面通过分享来自其它网站的夸大其词的或者虚构的新闻,每天触达大约170万人。2016年7月,该页面的创始人每月的收入达到3万美元。

Facebook应当采取措施来降低来自被其算法认定不可靠的页面的搜索排名。

在人工智能公司投资者阿齐姆·阿扎尔(Azeem Azhar)看来,做到这一点的一种方法涉及对页面的全面评估,如页面存在了多长时间(存在时间越长,可靠的可能性就越高),它们分享的内容来自哪里(是不是可靠的主流新闻来源?),点击它们的人的阅读习惯(他们平常看SpaceX或者外星人方面的内容吗?)

带有代表可靠性的“可信信号”的页面的内容会相应地较多出现在动态消息当中,而没有强烈的可信信号的页面的内容则会较少被传播。

“随着时间的推移,页面可以形成一定量的可信信号,就像积累信誉那样。如果我们将那些信号附加在一篇内容上,那它们就能帮助说明很多东西。”阿扎尔说道,“想象一下,你有一篇有关某种脑癌的内容,它得到了很多神经外科医生的分享。你会怎么看待那篇内容的真实性或者重要性呢?要是它是被很多的名人而不是神经外科医生分享,你又会怎么看呢?”

·提高现有社区工具打击假消息的效率

Facebook在2015年推出的一项功能能够让用户去标记潜在的谣言或者假消息。当有非指定数量的用户将内容标记为谣言时,它就会“被减少传播”,出现在用户动态消息中的可能性就会随之减少。此外,当特定热门帖子被标记为不实时,Facebook会在帖子上方显示免责声明,用模糊且较小的灰色字体指出“很多人举报称这篇内容含有不实信息”。

不过,此次竞选周期中有多少人看到这种免责声明呢?Facebook或许该考虑提高其现有系统对用户标记的敏感度,又或者使得它的免责声明变得更加显眼?

·在“相关链接”中链接其它的信息来源

香港中文大学新闻传播学院教授洛克曼·崔(Lokman Tsui)认为,Facebook没有充分利用好动态消息的一项不大显眼的功能。目前,用户只要点击动态消息中出现的内容,名为“相关链接”的标签就会在原有内容链接下方打开。当谣言或者不能证实的内容出现时,Facebook或许可以考虑默认开启“相关链接”功能,从而显示Snopes.com等网站或者持相反观点的媒体网站的链接。要是Facebook用户真的看到被证明不实的或者可能不实的信息,这会有助于增强他们辨别其所看到内容真实性的意识。

“现在有不少专门的信息核实组织。”洛克曼·崔说道,“Facebook可以给新闻附上其它的链接,说‘这是新闻,这里是一些可信的信息核实组织的链接。’”

·设计和列出全面的错误信息鉴别和管理流程

这也许是Facebook能够采取的最重要的一项措施,同时也是它目前为止做得最不好的地方。在平台算法如何确定各类内容的优先等级方面——不仅仅是新闻和图片,还包括几乎一切被分享在动态信息的内容——Facebook仍旧是“黑夹子”。该社交网络有专门讲述它如何处理骚扰信息和仇恨言论的页面,同时也为用户提供了举报这些信息的渠道。它还设立专门的页面来公布来自政府的获取用户相关信息方面的请求数量。

Facebook在这些方面的活动受到过诟病,但至少它们有存在。而对于如何处理假信息,它则没有进行具体的讲述。

Facebook或许还应该考虑允许第三方不定期评估它的算法以及算法在有效鉴别谣言(或者仇恨言论,或者色情内容)上的程序,并让它们发布Facebook在多大程度上达到他们给自己设定的标准方面的报告。

不完美但变得更好的Facebook

至于Facebook具体采取了哪些措施来改进其现有的假消息检测技术,在这方面投入了多少人力,未来又将进行多大的投入,Facebook并没有作出解答。

虽然该社交网络显然需要做更多的事情去清除假信息,但没有人会想要看到Facebook成为 “真相独断者”。

互联网上存在着大量的信息,有的是好的,有的则是不好的,它们离Facebook只有一次点击之隔。

正如Facebook逐渐能够给人们呈现迎合其政治理念的信息,它能够努力去逐渐做到倾向于呈现真相——即便这种倾向是有瑕疵的,不连贯的。洛克曼·崔表示,重要的是,Facebook没有变成“大老爹——保留他们认为真实的内容,而清除掉他们认为不实的东西。”他认为,Facebook能够也应当做更多的事情去帮助用户自己去辨别他们所看内容的真实性。(乐邦)

白鑫 本文来源:网易科技报道 责任编辑:白鑫_NT4464
分享到:
跟贴0
参与0
发贴
为您推荐
  • 推荐
  • 娱乐
  • 体育
  • 财经
  • 时尚
  • 科技
  • 军事
  • 汽车
+ 加载更多新闻
×

清华MBA:别让"穷人思维"渐渐拖垮你

热点新闻

态度原创

阅读下一篇

返回网易首页返回科技首页
用微信扫描二维码
分享至好友和朋友圈
x