虚假新闻的幕后捕手
2018-07-03 11:42

 
随着互联网技术的飞速发展,社交媒体颠覆了传统纸媒在新闻传播中无可取代的地位,成为当下新闻分享的主要平台。
 
据美国皮尤研究中心的报告统计,约有62%的美国人从社交媒体上获取新闻。尽管新闻与消息的来源获得了无限的放大,但是当读者在阅读、分享这些新闻信息时,很难辨识这些内容的真假。
 
在2016年美国大选中,不同利益集团相互指责和控诉对方制造和传播虚假信息的事件至今仍让人记忆犹新。梳理美国大选背后的假新闻甚至可以发现,制造、传播虚假新闻已成为一条“灰色”产业链。
 
皮尤研究中心曾做过调查,约24%的受访者承认曾转发过社交媒体上的假新闻,约82%的人认为自己经常在网络上看到虚假消息,约64%的人觉得虚假新闻已扰乱了社会的基本秩序。
 
确实,网络虚假新闻比真实新闻传播得更快、更广。比如,与拥有准确医疗内容的帖子相比,那些关于虚假医疗信息的网络帖子常常能获得更多的阅读量和评论。在一个观众关注度有限、内容选择饱和的网络世界里,虚假信息似乎对观众更有吸引力或更吸引人。
 
而且这一问题正变得越来越严重:到2022年,发达经济体的人们可能会遇到比真实信息更多的虚假新闻。这可能会导致一种被研究者称之为“现实眩晕”的现象——在这种现象中,电脑可以产生如此令人信服的内容,以至于普通人可能很难弄清楚什么才是真实的。
 
怎样才能让人类逃脱虚假新闻的陷阱呢?如今,借助人工智能新技术,或许能帮助人类走出黑暗。
 
检测谎言
 
机器学习算法是人工智能的一种类型。其涉及概率论、统计学、算法复杂度理论等多门学科。几十年来,通过分析信息的文本并确定某条特定信息是来自真实的个人交流,或者是大规模分发的药品招标,抑或是遗失已久的财产索赔的可能性,机器学习算法已经取得了成功。
 
在过滤垃圾邮件中,基于文本分析,人工智能系统可以评估一个帖子的文本或标题与某人在网上共享文章的实际内容的对比情况。同时,借助人工智能系统,可以检查类似的文章,看看其他新闻媒体是否有不同的事实。类似的人工智能系统还可以识别出散布虚假新闻的特定账户和源网站。
 
不过,这些方法的使用基于这样的假设,即传播假新闻的人不会改变他们的方式。然而事实是,他们经常改变策略,操纵虚假帖子的内容,以使其看起来更真实,更可信。
 
当然,信息的上下文也很关键。词语的含义会随着时间的变化而改变。而且同样的词在自由网站和保守网站上也可能具有不同的含义。例如,在一个更自由的网站上,一个带有“维基解密(WikiLeaks)”和“民主党全国委员会(DNC)”字样的帖子更有可能是新闻,而在一个保守的网站上,这样的帖子则可能另有它意。可见,利用人工智能检测虚假新闻仍面临很多挑战。
 
尽管如此,目前已有不少网络公司加入到新闻打假行动中。社交网站Facebook正在调整其算法,以消除其新闻传播中的虚假新闻。谷歌与事实检查网站开展合作,到目前为止,取得的结果还参差不齐。2016年,由AI团体的志愿者举办的“虚假新闻挑战赛”,旨在鼓励开发有助于打击恶意报道的工具。
 
利用人工智能造假
 
然而,利用人工智能检测虚假新闻的最大挑战在于,人工智能打假遇上人工智能造假。
 
2017年12月,一段出自国外Reddit论坛的视频迅速蹿红网络。视频中的艺人的脸其实是人工智能技术辅助合成的,但是看起来几乎毫无破绽。在该视频中,一种称之为“deepfakes”的技术的运用充分证明了机器学习系统令人惊叹的创造能力。所谓deepfakes,简单来说就是一种人脸交换技术,即在图像或视频中把一张脸替换成另一张脸。
 
通过人工智能新技术,不仅人脸可以实现“移花接木”,口型也可以实现轻松对应。
 
2017年7月,华盛顿大学的研究人员利用人工智能技术,制作了一段时长1分55秒的美国前总统奥巴马演讲的假视频,其图像和声音都达到以假乱真的水平。研究团队设计了一个人工智能程序,让其分析互联网上奥巴马的各种音频和视频,经过17个小时的“自主学习”后,人工智能就能通过奥巴马的声音,判断出对应的面部细节,从而模拟出匹配的数字图像。
 
新技术的突破让众人惊叹的同时,引起了人们对该技术的恐惧和担忧。比方说,“换脸术”“对口型”会给很多无辜清白的公众人物造成困扰;“假视频”会加剧虚假新闻的散播,从而大大降低视频作为证据的可信度。
 
一旦这些技术被滥用,由其引发的道德、伦理、版权等诸多问题,都将对个人、社会造成难以想象的影响,而且随着直播、短视频等平台生产出大量内容,手机的面部识别功能也开始日益普及,如果这些数据被人恶意利用,其后果将无法估量。
 
如今,研究人员已经在准备使用人工智能来识别这些由人工智能制造出来的“假货”。例如,视频放大技术可以检测人类脉搏的变化,从而确定视频中的人是真实的还是由计算机生成的。
 
但是,随着技术的发展,造假者和打假者都会变得更先进。有些“假货”可能会变得非常复杂,以至于很难被揭穿——不像前几代“假货”,它们使用简单的语言,并且很容易被反驳。
 
人类的智慧才是关键
 
事实上,打击虚假新闻传播的最好办法可能还得依靠人类。
 
虚假新闻带来的社会后果——政治两极分化加剧,党派纷争加剧,以及侵蚀主流媒体和政府的信任度——是非常严重的。如果有越来越多的人知道虚假新闻的风险如此之高,他们可能会对这些信息更加谨慎小心,特别是如果这些信息是基于情感的尤为值得警惕,因为这是吸引人们注意力的有效方式。
 
当有人看到一个令人愤怒的帖子,那么这个人最好调查一下这些信息内容,而不是马上分享。分享的行为也为一个帖子增加了可信度:当其他人看到这个帖子时,他们觉得这个帖子是由其认识的人分享的,而且他们对这个人至少还有点信任,所以不太可能会注意到最初的消息来源是否有问题。
 
现在,像YouTube和Facebook这样的社交媒体网站,可以自主决定给其网站的内容贴上标签,清楚地显示出新闻栏目是否是由有信誉的消息来源进行证实的。不仅如此,Facebook创始人马克·扎克伯格希望动员Facebook用户的“社区”来指导其公司的算法,并且Facebook可能会向众源验证的方向努力。维基百科也提供了一个模型,由专门跟踪和验证信息的志愿者组成。
 
扎克伯格认为,Facebook可以利用与新闻机构和志愿者的合作来训练人工智能,不断调整系统,以应对宣传者在主题和策略上的变化。尽管如此,人工智能并不能抓住网上发布的每一条新闻,但是它会让很多人更容易从虚假信息中获知事实。
 
魔高一尺,道高一丈。无论怎样,这场真假之战仍将继续。■
 
《科学新闻》 (科学新闻2018年6月刊 AI)

分享到:

0