首页 理论教育 揭露阴谋和揭穿谎言,书名《阴谋简史》

揭露阴谋和揭穿谎言,书名《阴谋简史》

时间:2023-08-15 理论教育 版权反馈
【摘要】:国会调查人员称,该账号实际上是由俄罗斯政府支持的一个名为互联网研究机构的实体创建的。积极措施计划旨在通过各种形式的媒体操纵来影响世界大事。俄罗斯的高层战略是削弱美国和北约的实力,让美国在盟友眼中变得糟糕,并在美国内部制造不同意见和对权威的不信任。阴谋论的盛行也使得美国在盟友眼中越来越不可信,削弱了美国在世界舞台上的地位。

揭露阴谋和揭穿谎言,书名《阴谋简史》

詹娜·艾布拉姆斯在2016年总统大选期间是推特上的热门人物,拥有七万多名粉丝。2014年,艾布拉姆斯以@Jenn_Abrams的昵称入驻推特,不断地发推文,反映了某个群体的民粹主义右翼政治理念,而这个群体最终将成为唐纳德·特朗普阵营的核心组成部分。她撰写的热门推文被唐纳德·特朗普和凯利安妮·康威(特朗普当时的竞选经理)等当权派人物转发的次数越来越多。

问题是詹娜·艾布拉姆斯这个人并不存在。国会调查人员称,该账号实际上是由俄罗斯政府支持的一个名为互联网研究机构的实体创建的。该机构总部设在俄罗斯圣彼得堡,雇用了数百人,目的是散布会损害美国、促进俄罗斯利益的信息和错误信息。

这些工作人员创建了数千个所谓的“灰色出口”或“巨魔”的社交媒体账号和网页,乍一看与普通美国人和其他西方人的页面颇为相似,实际上是由讲英语的俄罗斯人或受雇于俄罗斯人的西方人运营的。

这是对旧策略的全新的改变。这些虚假账号是俄罗斯人进行的一种政治斗争的延续,这种政治斗争有时被称为“积极措施”。积极措施计划旨在通过各种形式的媒体操纵来影响世界大事。早在20世纪20年代,它就以各种形式出现过。

1998年1月,CNN采访了退休的克格勃少将奥列格·卡卢金,他描述了“颠覆”在苏联情报中的作用:

苏联情报部门的核心和灵魂不是情报收集,而是颠覆:削弱西方势力的积极措施,在西方社会各种联盟中(特别是北约)制造不和,在欧洲、亚洲、非洲、拉丁美洲人民的眼中削弱美国,从而为战争的真正发生做好准备。让美国更容易受到其他民族的强烈指责和不信任。

2017年3月30日,参议院情报委员会就俄罗斯干预2016年大选听取了多位俄罗斯“积极措施”专家的证词。其中一位证人是联邦调查局前特工克林特·瓦茨,他是美国外交政策研究所国家安全项目的高级研究员。瓦茨描述了“积极措施”计划的适用范围:

虽然俄罗斯希望提升西方候选人对其世界观和外交政策目标的好感,但赢得一次大选并不是他们的最终目标。俄罗斯的积极措施希望通过追求五个相辅相成的目标来推翻民主国家:

1.削弱公民对民主治国的信心。

2.煽动或激化分裂的政治分歧。

3.侵蚀公民与当选官员及其机构之间的信任。

4.在外国民众中普及俄罗斯的政策议程。

5.模糊事实和虚构之间的界限,从而让民众对信息源产生普遍的不信任或不确定。

从这些目标出发,克里姆林宫可以彻底摧毁民主国家,取得两个重大突破:

1.欧盟解体。

2.北约解体。

这个计划的野心是令人窒息的:北约解体,“俄罗斯帝国”回到冷战状态,被类似苏联的盟友和替代国安全包围。

俄罗斯的高层战略是削弱美国和北约的实力,让美国在盟友眼中变得糟糕,并在美国内部制造不同意见和对权威的不信任。一种方式是传播阴谋论。如果你能让更多的人相信“9·11”事件是一场内幕交易,或者桑迪·胡克枪击案是一个骗局,或者“化学凝结尾”是真实存在的,那么对政府极度不信任的人数就会增加。阴谋论的盛行也使得美国在盟友眼中越来越不可信,削弱了美国在世界舞台上的地位。

你可能会认为,这种说法本身就是一个牵强附会的阴谋论。俄罗斯试图通过在西方推广“化学凝结尾”阴谋论来瓦解北约,这听起来确实相当荒谬。但是让我们着眼于证据。俄罗斯宣传机构“今日俄罗斯”新闻网(RT)发表了多篇文章,并就“9·11”真相运动和其他阴谋论进行了多次采访,为理查德·盖奇和杰西·温图拉等阴谋论者提供了广泛的渠道:

2010年3月10日,“今日俄罗斯”新闻网:“美国人继续为‘9·11’真相运动而战。”

理查德·盖奇是“AE911真相”网站的创始人,该组织由一千一百多名专业人士组成。他们表示,导致世贸中心三栋建筑倒塌的不是飞机。

“这些建筑是被炸药炸毁的。一千多名建筑师和工程师要求国会考虑我们掌握的证据,发出新的传票进行调查。”

2010年3月10日,杰西·温图拉在“今日俄罗斯”新闻网上表示:“对一些人来说,对‘9·11’事件的调查还没有结束。我在海军水下爆破队工作了四年,在那里,我们接受了爆破训练。我的同事与著名物理学家史蒂文·琼斯进行了长谈,琼斯说,没有爆破装置的‘由重力驱动的坍塌’违背了物理定律。”

“今日俄罗斯”经常采访戈登·达夫,把他称为军事专家,达夫一直支持桑迪·胡克校园枪击案是“假旗事件”的说法。“今日俄罗斯”的意见专栏有关于“化学凝结尾”的文章,甚至有一篇来自“地平说”阴谋论者的文章。对于一个伪主流新闻媒体(“今日俄罗斯”声称在美国每周有800万观众)来说,谎言无处不在。

在我写《阴谋简史》的时候,俄罗斯对2016年总统大选的影响程度仍然存在相当大的争议。情报部门和大多数国会议员似乎毫不怀疑俄罗斯的干预行动,但在行政部门的支持下,社交媒体否认俄罗斯的干预行动,称有关俄罗斯介入大选的说法“毫无根据”“已经被揭穿了”。如果真的有一支俄罗斯“巨魔军团”在这个话题上主导着舆论,那么出现这样的否认是意料中的事。

不管目前的细节如何,毫无疑问,俄罗斯的确推行过广泛的宣传和颠覆计划,将来也会继续推行。虽然我们可能认为这主要是俄罗斯特有的现象,但它将成为任何国家(无论大小)网络武器库的一部分(如果还没有付诸实践的话)。我们有望在巴基斯坦、朝鲜以及其他国家看到这一点。我们也应该期待美国会做出同样的回应。鉴于社交媒体目前在人们获取信息和形成观点方面的突出作用,外国颠覆活动的很大一部分,即他们的“积极措施”,将不可避免地指向脸书和推特。我们知道有像詹娜·艾布拉姆斯这样的“巨魔”,但我们将会看到越来越多的东西。虚假信息的未来走向,以及阴谋论的传播方向是人工智能机器人

这里所说的机器人指的是一种互联网机器人,不是挥舞着金属手臂和发出“哔哔哔”的声音的物理机器人,而是某种只存在于云中的东西,就在电脑的某个地方。这是一个人工智能程序,被设计用来做一些简单的事情,一个人就能在网上操作。最初,它做的都是很普通的任务,比如给网页做索引、响应简单的客服查询或交易股票

机器人还可以被编程来执行简单的重复性任务——这些任务对人类来说太无聊或者太耗时。这些任务中有许多已经接近或超越了合法性的边界。机器人可以通过在在线投票中多次投票来填充在线投票箱。机器人可以被编程反复“观看”某段YouTube视频来提高浏览量,或者下载一款iPhone游戏来提升排名。二十多年来,这类机器人的使用情况已经被普遍记录在案,与之斗争的是一场正在进行的军备竞赛

越来越多的机器人被编程用于在社交媒体上发布信息。2014年,一份请愿书出现在白宫网站上,呼吁将阿拉斯加归还给俄罗斯。这起初看起来像是一个笑话,但俄罗斯的机器人似乎不仅在为这份请愿书投票,而且还在社交媒体上发布链接,鼓动其他人投票。类似地,2016年大选之夜,在唐纳德·特朗普即将成为美国总统的消息变得明朗之后,“加州脱美”这个话题开始流行起来。其中一些推文是加州人在表达他们对投票结果的不满,但大部分“加州脱美”推文经追踪怀疑与俄罗斯互联网研究机构“巨魔”和机器人网络有关联。

虽然单一的操作(比如@Jenn_Abrams)可以非常有效地推广消息,但是有组织地构建这样一个账号需要很长时间。使用机器人军队可以人为地让故事看起来像是“病毒式传播”,从而更快地完成任务。在2016年总统大选之前,脸书上的数千个机器人账号被用来以这种方式详细报道。据估计,目前可能已有1.26亿美国人在脸书上看到过俄罗斯“巨魔”上传的内容,这些内容经推特转发和机器人军队分享后被夸大了。

今天的哑巴机器人大军办事成效卓著,但是它们很快就会面临被下一波浪潮——拥有大量人工智能的机器人——淘汰的命运。

泽伊内普·图菲克希在关于社交媒体算法的反乌托邦未来的TED演讲中说:

我们不再编程了。我们正在发展我们还没有真正了解的人工智能。

在我学习游戏编程的时候(三十年前),所有内容都是关于算法的。算法是一系列逻辑步骤、决策和循环,由计算机程序产生你在屏幕上看到的结果。当你为游戏中的某个角色编写一个行为时,整个行为都被封装在代码中。你可以为特定的行为创建一个算法。作为一个程序员,你理解这个算法,你也理解结果。这主要是由于计算机速度和内存的限制。

随着这些年来机器变得越来越强大,我们转向了不同的方法。人工智能开始越来越少地受到硬编码算法的驱动,而更多地受到数据的驱动。你可以编写一个更通用的算法来定义一系列行为,然后将各种数字(数据)应用到这些行为上。最终,连数据的生成都实现了自动化。游戏设计师会“展示”人工智能如何以某种方式行动,并找出最符合这种行为的数据。人工智能可以观察人类玩家并进行模仿。它也可以通过和自己玩游戏来提高技能。

现在,在一款游戏发布后,控制人工智能的数据可以继续调整,修改自己(通过游戏开发者的中央服务器),做玩家最喜欢做的事情。人工智能逐渐发展成为一款更好、更容易上瘾的游戏,玩家将继续为其付费。

在脸书、推特和YouTube等社交媒体平台上,数据驱动的算法决定下一步显示什么(幕后代码决定下一步将“自动播放”的内容)。这些算法最终都是为了赚钱而设计的。他们首先让你留在网站上,向你展示算法认为像你这样的人会看的内容(根据你所属的群体、接触互联网的历史和上网记录等)。其次,他们的设计目的是让你买东西,通过向你展示算法确定会让你花钱的东西来做到这一点。

没有人真正了解这些算法是如何工作的。当然,他们或多或少理解代码。即使是代码也经常是由多人编写的,有时甚至是数百人。谷歌雇用了2.5万名开发人员,他们每天对代码进行4.5万次重大修改。程序员不再经常从头开始编写完整的代码——他们有时编写纯算法,但现在编程的大部分工作要么是处理大型程序的一小部分,要么是将其他人编写的现有代码库黏合在一起

这些新兴算法的真正奥秘来自数据。脸书和YouTube在决定下一步向你展示什么内容时所做的决定不仅仅是基于你的浏览历史、你的信用评级、你的位置和你的年龄(如果他们有,他们会使用所有这些数据)。现在的决策基于大数据,即所有用户的汇总数据。

驱动算法的数据现在不仅仅是几个数字,它是由数百万个数字组成的巨大表格,行和列的数量都达到成千上万。构成较大数据集的这些表中的任何一个,在技术上都被定义为“矩阵”,这一点挺讽刺的。矩阵是由计算机不断翻查每个人以及他们所做的一切的大数据记录来创建和完善的。没有人能读懂这些矩阵,即使有计算机帮忙,它们也太大太复杂,无法完全理解。但是计算机可以使用它们,应用适当的矩阵向我们展示适当的视频,最终引导我们适当购买。我们不是生活在矩阵中,但仍然有一个矩阵控制着我们。

这和阴谋论的兔子洞有什么关系?有很大关系。这些算法正迅速成为通向兔子洞的主要路径。在很大程度上,这种情况已经发生了,还会变得更糟。图菲克希描述了当她尝试在YouTube上观看不同类型的视频时发生的事情。她先是观看了唐纳德·特朗普集会的视频。

我想写一些关于唐纳德·特朗普的集会的文章,所以我在YouTube上观看了几次视频。YouTube开始向我推荐并自动播放白人至上主义者的视频,极端主义的程度越来越深。如果我看了一段视频,YouTube就会向我推荐更极端的视频。

如果你观看了希拉里·克林顿或伯尼·桑德斯的内容,YouTube会推荐并自动播放左翼的阴谋视频。此后推荐的视频,阴谋色彩会越来越明显。

走下坡路,进入兔子洞。数据驱动的算法已经发展到了这样的程度,即认识到让人们观看更多视频的办法是引导他们走下坡路,沿着阻力最小的路径下滑。在没有人为干预的情况下,这个算法已经发展到了完美的程度,可以逐步提高阴谋视频的强度,这样你就不会关掉视频,而是选择继续观看。视频变得更加扣人心弦,因为该算法发现(没有任何人类的意义,但发现了),它越能引导人们深入兔子洞,就能获得越多的收入。

我们已经看到了阴谋论者多么喜欢看阴谋论的视频,这是现在进入兔子洞的主要途径。他们会看很长的视频,而且会看很多遍。他们寻找类似的视频。他们越相信自己的观点是正确的,就越喜欢看那些反映、强化和证实这种观点的视频。这是一个最好的正反馈回路

社交媒体巨头们无意中开发了算法,开发了一种矩阵,这种矩阵经过了精心调整,可以把人们困在这个循环中,把他们吸进兔子洞,然后让他们一直待在那里。即使你的朋友从来没有接触过阴谋论,他也可能因为一些性格因素而相信某些视频内容,这些因素是算法可以抓住的。就算他只是个普通人,YouTube的盲算法也能发现他,找出他的弱点,为他调整一个矩阵,然后开始戏弄他。这种循环不断重复,随着某个体系和更大体系的参与,强度会不断升级。

在越来越多的情况下,我们甚至无法观察到这种行为。这个算法针对的是一个人——也许是你的朋友,也许是你。结果是为那个人量身定制的,只有那个人能看到人工智能在它私下策划的兔子洞的入口处撒下的面包屑。(www.xing528.com)

更阴险的操纵正在以聊天机器人和假人的形式实施。聊天机器人,顾名思义,就是一种用来和人聊天的机器人。聊天机器人已经存在了几十年。最初关注的焦点是理论层面,试图让这些机器人的声音听起来像人类。后来,它们被用于客户支持和电话营销等领域,在这些领域,不再是一个疲惫的人在呼叫中心编写脚本,而是一个用处更小(但廉价且不知疲倦)的机器人编写脚本。这种机器人越来越多地使用脸书信使平台。2017年,超过10万个脸书信使机器人被创建,是前一年总数的四倍。

下一个不可避免的阶段是假扮角色的聊天机器人,通过建立社交媒体账户,与人在线聊天,目的是以某种方式操纵他们。这种类型的操纵已经存在,人类(“巨魔”)创建内容,然后使用机器人来完成大量的重复分享和点赞。一旦整个过程自动化,它将允许数量级更大且更有效的操作。

聊天机器人会越来越像真人。它们不仅可以通过短信和帖子聊天,还可以进行语音聊天。在大约十年内,用虚拟角色进行视频聊天是完全可能的。机器人甚至可以通过合成图像、创建虚拟角色的3D模型,并将自己插入现有的照片和视频中,来“拍摄”照片和视频。最终它们会合成整个虚拟世界。

想象一下接下来会发生什么:一个有魅力、有说服力的“人”会在互联网上和你交朋友,赢得你的信任,然后开始为了邪恶的目的而摆布你的信仰。这就好比你头脑中的亚历克斯·琼斯或戴恩·威灵顿跳出来直接和你面对面地谈论“9·11”或“化学凝结尾”。它甚至可能会假装是亚历克斯·琼斯、奈尔·德葛拉司·泰森或者耶稣,不管它的算法如何,都可能对你有用。不仅仅是你一个人,数以百万计的其他人将同时成为从不睡觉的假人的目标,它们每秒钟都在试着研究如何让它们的目标人物更接近自己想要他们成为的人。

在某种程度上,这是会发生的。但这不会是一场自动机器人的灾难。机器人之所以能够工作,是因为它们能够在推特和脸书等主要社交媒体平台上开设账户。防止人工智能占领国家灵魂的最简单的方法是将社交媒体账户限制在真实的人手中。已经有人在推动这样的事情了,例如,商人及潜在的总统候选人马克·库班(通过他的认证账户)发推文说:

@推特是时候确认每个账户背后的真实姓名和真实身份了,@脸书也应该对此更加严格。我不在乎用户名是什么,但是每个账户背后都需要有一个人。

这种做法存在一些问题,尤其是在一些高压政府的国家。在这些国家,网络匿名可能事关生死。身份盗用的情况也会增多,因为机器人会试图伪装自己的身份,成为“真实”的人。最终,无论如何,社交媒体公司将不得不拒绝机器人大军免费且未经验证的账户。希望历史只会将21世纪20年代初看作真实的人和虚拟的人之间短暂的混乱时期。最终,这种分离将被强制执行,这是必然的。

在即将到来的对抗由人工智能驱动的错误信息和阴谋论的斗争中,我们还需要什么武器?这种趋势似乎是不可阻挡的,随着错误信息的增多,媒体和技术领域更严重的数据开始得到关注。

2016年,脸书首席执行官马克·扎克伯格嘲笑那些在脸书上发布虚假新闻的网络“巨魔”会对总统大选产生任何影响的想法,称其为“疯狂”:

就我个人而言,我认为脸书上的虚假新闻(内容非常少)以任何方式影响大选的想法都是非常疯狂的。选民根据自己的生活经历做出决定……断言某人投票的唯一原因是他们看到了一些虚假新闻,这是一种极度缺乏同情心的说法。

2017年,在对俄罗斯推广虚假新闻事件进行内部调查后,他又收回了这一说法。

称其“疯狂”是我欠考虑,我很后悔。这是一个非常重要的问题,不容忽视。

脸书早就意识到了人工智能、垃圾邮件、机器人和虚假内容聚合器带来的问题——与其说是对西方社会的生存威胁,不如说是对他们本已摇摇欲坠的收入流的更世俗的威胁。脸书的收入来自广告。机器人在两个方面造成了问题。首先,机器人不是人,它们不花钱。所以,如果机器人在脸书上,它会忽略广告,但仍然要花脸书的钱。如果脸书上很大一部分(比如10%)的流量实际上是人工智能机器人,那么这对脸书来说是一笔巨大的开支,每年的服务器成本可能超过一亿美元。

其次,人们不喜欢机器人。人们不希望计算机的传输通道被垃圾邮件堵塞,所以,如果脸书变成了一个充斥着机器人垃圾的沼泽,那么人们就不太可能把它作为一个信息源,在那里花的时间也就会减少。对于受教育程度较高、拥有较多净资产的用户来说尤其如此,他们更希望成为目标受众。对于脸书来说,要保持合理的高质量受众,并因此保持可行的收入流,他们需要让该受众的新闻提要上显示的信息保持合理的质量和水平。

随着俄罗斯在脸书上的参与度于2017年逐渐被挖掘,出现了一项新的当务之急——政府对社交媒体对外宣传进行监管的真正可能性。脸书知道这是有可能的,但不知道会采取什么形式。尽可能地把自己的地盘收拾干净对他们最为有利。据《纽约时报》报道,在这方面存在内部分歧:

脸书的一个核心矛盾是法律和政策团队与安全团队之间的矛盾。安全团队通常要求更多地披露国家是如何滥用网站的信息的,但法律和政策团队会优先考虑商业需求。

脸书是一家由人组成的公司,这些人认识到,如果继续滑向充斥着错误信息、虚假新闻和宣传的兔子洞,就可能对社会造成危害。这不是他们想要的世界。虽然他们的行为肯定有获利的动机,但其中也有一部分动机是希望这个世界为了子孙后代而变得更加美好。

(我知道,对于顽固的阴谋论者来说,这一段听起来很疯狂,他们认为脸书是光明会的新世界秩序的延伸。我希望,如果他们看到这一段,至少能从兔子洞里爬出来。如果有人随意翻阅了这一页,然后嘲笑我,我也能接受。)

脸书做了什么呢?2017年初,他们与一些外部机构签约,对脸书上发布的文章进行事实核查,并标记虚假新闻。这些机构包括Snopes、FactCheck、PolitiFact、ABC新闻和美联社。这些机构的工作人员可以访问一个仪表盘,上面显示着脸书上的热门话题。他们可以点击一个表示有争议(或没有争议)的方框,并提供一个链接,指向他们自己的网站,那里有揭穿谎言或解释性的文章。

这里的问题是规模问题。虽然有这么一个出色的事实核查团队原则上听起来不错,但脸书上共享的链接有数百万个。脸书只有某些人可以查看这些链接。所以,只有最流行的链接才会被核查。当核查开始时,这个链接已经被成千上万的人看到了。如果这是一个突发事件,可能需要几天的时间进行核查,才能在该事件旁边贴上“有争议”的标签。

这个过程需要简化,人工智能需要在这个周期的早些时候被用于识别热门的虚假新闻(包括阴谋论)。这是当前许多研究的主题。

脸书选择让外部机构进行事实核查,以避免被指责存在偏见。各个领域的人都不相信脸书。保守派认为脸书存在自由主义偏见,自由派和自由主义者认为脸书在为企业暗中监视他们,阴谋论者则认为这是在他们被赶进联邦应急管理局的营地之前确定并追踪他们的阴谋的一部分。脸书监管自己的内容不会有什么好结果——尤其对于阴谋论者来说,他们的特质就是要分享大量的错误信息,而这些信息会被脸书标记出来。

脸书试图借用中立的第三方力量。对于某些观众来说,这从一开始就是注定的。事实核查程序,如Snopes、FactCheck和Politi-Fact,已经被认为是可疑的。遗憾的是,脸书与Snopes的合作将会是一个可笑的概念,因为有人认为这两个组织已经作为光明会的工具被“揭穿”了。

对于更多的人来说,脸书的第一次尝试虽然笨拙,但值得称道。他们采取的一个很好的步骤是要求他们征用的所有事实核查组织要么是有中立报道历史的主要新闻媒体(ABC新闻和美联社),要么是国际事实核查网站(IFCN)的认证成员。

IFCN由著名的波因特学院运营,该学院还拥有佛罗里达州的圣彼得堡时报公司。波因特学院于2015年9月成立了IFCN,以推广事实核查方面的最佳做法。被波因特学院认证意味着一个组织已经通过了严格的审核,并符合一个严格的检查表,确保它是无党派、公平、透明、公开和诚实的。这在IFCN守则中得到了体现:

1.无党派和公平;

2.透明的信息源;

3.资金和组织的透明度;

4.透明度的方法;

5.公开、诚实地更正。

很遗憾,脸书很快发现这比他们最初想象的要复杂。2017年12月,经过内部实验,他们发现,将新闻标记为“有争议”的,可能会比之前分享的次数更多,部分原因是一种适得其反的效果。现在,用户不再被警告Snopes和PolitiFact认为该新闻“有争议”,而是被告知还有“其他报道”。这种方法避免了逆火效应,使用户更有可能看到“其他报道”,允许脸书链接到更为细致的分析。这些分析不仅“揭穿”了这个说法,而且更准确地概述了可能非常复杂和不确定的情况或话题。毫无疑问,他们的方法将继续快速发展。

另一家对过滤虚假新闻感兴趣的大公司是谷歌。谷歌的主要收入来源是基于搜索结果的广告。谷歌有很强的营利动机,想要确保搜索结果尽可能地达到高质量。谷歌正在采取初步措施,通过一个允许发布者将文章标记为反驳的系统,实现自动事实检查。然后,谷歌使用一种自动算法,试图将高质量的反驳与声明相匹配。对这个系统的初步评估表明,它是随机的,这可能导致它被认为是有偏见的。

微软的必应搜索引擎虽然比谷歌小,但仍然占据着相当大的市场份额。微软表示,他们拥有33%的美国搜索市场份额(包括使用必应的雅虎),以及9%的全球市场份额。2015年,微软研究员戴娜·博伊德创立了数据与社会研究所,一定程度上是为了帮助解决数据自动化和人工智能发展带来的问题。到目前为止,主要是研究方案。

一个类似的组织是信任项目,最初由慈善家克雷格·纽马克资助。纽马克因“克雷格网站”而闻名,这是一个互联网销售平台,有自己的机器人问题。“信任项目”正在开发一系列“信任指标”,以允许谷歌和其他公司对信息质量进行排名。这些指标包括作者的专业知识、引文和参考文献、报告方法以及输出机构的反馈和更正政策。

这些举措基本上是实验性的,我们还不知道解决这个问题的最佳方式是什么。令人振奋的是,各种各样的大型组织对待这个问题似乎都非常认真,并投入了大量的资源来处理这个问题。

小公司也纷纷加入这场战斗,他们认识到,在这场战斗中帮助这些巨头是有利可图的。重点是利用人工智能来识别与标记虚假新闻和错误信息。其中一家公司是AdVerif.ai,它正在开发一种被称为“FakeRank”的软件,可以自动检测信任项目所做的事情——对某个渠道或某个事件的可信度进行量化和衡量。

另一家公司是MachineBox。这是一家人工智能技术开发公司,训练自然语言处理模块识别虚假新闻,成功率达到95%。其联合创始人亚伦·埃德尔通过半人工的方式开发了这个系统。他先是整理了一组真实新闻和虚假新闻,然后让人工智能试着进行分辨。虽然对单个人来说很耗时,但这种方法显示出了巨大潜力,应该能很好地扩展到支持人工智能的机器人。

2018年3月,YouTube的首席执行官苏珊·沃西基宣布,公司将尝试将所谓的“信息线索”的内容自动添加到流行的阴谋论视频中。这些内容是维基百科上直接相关文章的弹出式摘录。虽然这不太可能对那些认为维基百科是阴谋组成部分的人产生立竿见影的效果,但它会让人们直接接触到他们原本不会自己去寻找的信息。它至少应该能防止人们由于缺乏其他信息而掉进兔子洞。它甚至可以帮助人们摆脱困境——他们的视角会随着了解的加深而得到提升,即使他们最初拒绝“官方”报道。

在写本书时,也就是2018年,在这个充斥着虚假信息的世界,有许多事情是令人气馁的。情况在好转之前可能会变得更加糟糕。但我对信息领域,特别是社交媒体领域的主要参与者做出的努力感到欢欣鼓舞,他们正在努力逆潮流而动。

我还希望,大规模地打击更普遍的虚假信息,将会对打击我们在本书中讨论过的更极端类型的阴谋论有附带的好处。

所有的虚假信息都是一种阴谋论,因为虚假信息总是暗示着你被骗了,而且通常是被那些对你有某种权力的人骗了,有时是政客,有时是公司,有时是他们所谓的宠物科学家,但总会有一个所谓的阴谋。

想想过去几年甚嚣尘上的政治上的虚假信息吧。有人认为,掩盖奥巴马的出生地、希拉里·克林顿的健康状况、与比萨店有关的恋童癖集团、克林顿夫妇暗杀了多少人、俄罗斯人与大选的牵扯多深,这些都是阴谋。这些阴谋论的性质取决于你对它们的看法,不管怎样,一方或另一方都会涉及虚假阴谋论。也有一些阴谋是真实存在的。

反对错误信息的斗争,从根本上说是反对虚假阴谋论传播的斗争。为了防止更无聊的错误信息和虚假信息的传播,需要做出大规模的努力,最终也将减缓虚假阴谋论的传播,如“化学凝结尾”阴谋论或“9·11”控制爆破拆除阴谋论。推动更好的政治事实核查,将直接或间接地减少伪科学、医疗骗局和阴谋论。

自动化和人工智能将是关键所在。现在,揭穿虚假阴谋论可能是一项非常耗费体力的重复性工作。我们可以通过创建容易被搜索引擎发现的可访问的揭穿信息来最大化我们的努力,但是,如果人们不去搜索这些揭穿信息,他们就不会看到。当人们在公共论坛上发布有用的信息时,我们需要工具和自动化系统,使揭穿术和事实核查即时可用。

还有许多工作要做。我们仍然处在反对武器化虚假信息的战争中。人工智能在这场战争中扮演的未来角色充满了不确定性和希望,我们需要非常仔细地观察这一点。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈