清研智库:如何应对AI带来的虚假信息?

虚假信息的快速攻击,目的是立即产生破坏性效果,是数字生态系统中最重大的挑战之一。

信息泄露的风险

有些形式的虚假信息可以在几小时甚至几分钟内造成伤害。这类虚假信息只要有足够的时间就很容易被揭穿,但要想迅速揭穿以防止其造成损害却极为困难。

选举是许多领域中可能发生这种情况的一个例子。金融市场是另一个例子,它可能会受到短期操纵。外交事务可能会受到影响,因为谣言通过数字平台迅速传播到世界各地。社会运动也可能成为目标,因为传播虚假信息的目的是为了刺激某项事业的支持者或反对者采取行动或作出反应。

当然,旨在造成短期影响的网上虚假信息所带来的问题并不新鲜。今天,AI可以作为一种力量倍增器进行部署,让一小部分人创造出更大群体的在线活动水平。

检测虚假信息

各种形式的虚假信息是社交媒体公司面临的最棘手的挑战之一。适用于许多其他领域的假阳性假阴性的权衡同样适用于虚假信息检测。如果社交媒体公司对虚假信息的分类过于宽泛,那么他们就有可能让那些发布重要、及时的准确信息的用户沉默。如果公司的分类范围太窄,虚假信息攻击就可能不被发现。

社交媒体公司深知这种权衡。对于旨在较长时间内采取行动的虚假信息活动,在许多情况下,社交媒体公司的最佳做法是保守地封杀内容;等待确认信息的虚假性后再封杀的危害往往低于无意中封杀传达准确信息的合法用户的帖子的危害。换句话说,对于会在较长的时间范围内造成大部分伤害的虚假信息,社交媒体公司有足够的时间来调查疑似虚假信息帖子的准确性,同时还保留了在必要时尽早采取行动的选择,以预先阻止大部分伤害。

虚假信息的快速攻击尤其难以应对,因为它们不会给社交媒体公司留下时间。

对于不复杂的虚假信息活动,例如那些涉及到从新创建的只有少数追随者的帐户中复制和粘贴帖子的活动,检测和迅速作出反应是很简单的事情。然而,像上述复杂的攻击,其行为和表现与合法账户活动类似。辨别真假、识别哪些账户是善意的,哪些不是,所需的时间远远大于虚假信息造成最严重损害的时间。

幸运的是,打击网络虚假信息的必要性在学术研究人员、民间社会团体和商业部门,特别是在初创企业和成熟的技术公司中得到了越来越多的关注。这导致了越来越多的付费产品和免费在线资源来追踪虚假信息。解决方案的一部分涉及机器人检测,因为机器人经常被用来传播虚假信息。但机器人也被用于许多其他目的,有些是邪恶的,有些是无害的;而且并非所有的虚假信息活动都涉及机器人。越来越多的商业产品旨在检测和管理机器人。

机器人仅仅只是问题的一部分,因为并非所有使用机器人的虚假信息活动都会被机器人检测软件发现。因此,拥有能够查看可疑内容如何影响更广泛的生态系统的工具也很重要。

数据标签的挑战

以足够快的时间应对虚假信息的快速攻击将需要AI。但是,AI并不是魔法;要想有效地应对虚假信息,它需要获得数据以及使其能够评估数据准确性的信息。为了进一步探讨这个问题,首先考虑如何在没有任何时间压力的情况下,使用基于AI的方法来检测虚假信息,然后解决因需要快速检测而产生的额外复杂性,是很有帮助的。

当有大量已被准确标记的训练数据集时,虚假信息最容易被检测出来。训练数据是用来让AI系统学习的,这样当它看到训练集里没有的新数据时,它就知道如何对其进行分类。使用一个已经就感兴趣的属性进行过标注的数据集进行学习。一旦完成了训练过程,该算法将非常有效地快速将有关该药物的新社交媒体帖子或新闻报道分类为不准确或准确。

还有一类基于无监督学习的机器学习技术,算法必须在没有预先存在的标签的情况下学习识别数据中感兴趣的类别。

任何学习算法,无论是有监督的还是无监督的,一个障碍是获得足够大的训练数据集。适合用作训练数据的特定问题的信息可能需要大量时间在社交媒体上积累。为了AI在系统中检测虚假信息,数据在许多情况下至少需要在一开始就进行一定程度的人工编码。但对于需要非常快速地部署虚假信息防御措施的情况来说,它的效果要差得多,在这种情况下,通常会有较少的数据量可以作为算法学习的基础。

另一个问题,无论是在快速还是在时间限制较少的识别虚假信息的尝试,都是AI算法在学习过程中所依赖的数据标签的准确性。标签不一定准确是机器学习中一个众所周知的问题。

使用AI识别虚假信息的尝试很可能需要面对嘈杂的数据,原因很简单,这其中涉及到有意的欺骗。虚假信息攻击会与一系列关于网上言论是否真实的矛盾说法联系在一起。在很短的时间内,算法或者一个人很难知道该相信哪个标签。因此,要快速回应假消息,就必须解决有限的数据和不可靠的,在某些情況下故意错误是数据标签的双重障碍。

研究人员已经认识到这些问题,并正在开发新的方法,这些方法不依赖于大量的预先存在的训练数据集。在解决虚假信息的研究中,一个共同的主题是衡量在线来源的可信度。建立和利用可信度的方法对于在精心设计的虚假信息快速攻击中快速识别真相至关重要。

同样重要的是,要认识到AI可完成的极限。期望在不久的将来,任何AI解决方案都能够快速、明确地识别虚假信息攻击,那是不合理的。

政策考虑

公共政策将在应对虚假信息快速攻击的人力和技术方面发挥核心作用。政策考虑也将是人类应对的重要驱动力。对于大多数主题和事件来说,根本没有资源提供专门的人员来单独监测可能出现虚假信息的各种情况。特别是考虑到Facebook和Twitter等公司在全球范围内运营,在近两百个国家有数十亿个账户,有可能被用来传播虚假信息。因此,对于绝大多数虚假信息,社交媒体公司的人工干预必然是在通过算法或人工报告渠道发现问题后才进行。

此外,还需要制定政策来处理AI系统做出确切错误决定的情况。由于在虚假信息快速攻击的早期阶段,可用的数据有限,快速做出判断可能会导致算法颠倒真假,得出虚假信息是准确的结论,试图揭穿虚假信息本身就是虚假信息攻击。算法会受到确认偏差效应的影响,通过有选择地给予支持该结论的输入更大的权重,导致对错误结论的信心增强。特别是考虑到虚假信息快速攻击的时间很短,这可能会导致算法迅速趋向于一个错误的结论,而这个结论需要人的干预来识别和扭转。

简而言之,不断增长的社交媒体生态系统和越来越强大的内容传播AI工具的可用性相结合,意味着虚假信息快速攻击将成为一个经常性特征。应对这些攻击将需要AI的进一步进步,特别是在数据非常有限的情况下快速评估在线来源的可靠性的方法有关。还需要社交媒体公司内部注意确保政策和资源到位,以利用虚假信息检测技术的能力,辅以人工干预,并最大限度地提高利用其平台促进而不是破坏获取准确信息的可能性。

作者John Villasenor,本文原载于布鲁斯金学会,清研智库李梓涵编译

相关文章