洋葱式信息安全观察:浅议虚假信息识别

围观次数:477 views

互联网的应用使得信息的传播更加地便捷,然而传播虚假信息可能会实现传播者的经济甚至是政治上的价值,因此制造和传播虚假信息、未经验证传播虚假信息在互联网上频频发生。虽然很多国家都采用了实名制,但由于个人信息保护、跨域法律等各种因素的影响,使得互联网上传播虚假信息所获得的收益与相应惩罚不平衡,所以仅仅依靠法律无法阻止互联网混杂着大量的虚假信息传播。这些虚假信息包括伪造的web网站、新闻等,其形式通常以文章、图片以及其他的多媒体等独立或组合形态出现。

例如:COVID-19的出现不仅仅给人们带来了线下的伤害,网络犯罪分子利用COVID-19危机不断尝试欺骗,以实现其经济的或者其他目的。让我们看一则案例:某网站以帮助其进行 COVID-19 研究作为吸引注意力的点,号召人们捐献自己的计算力或转发捐献的链接进行宣传,但事实的真相却是该网站利用人们的善良在志愿者的电脑上植入供窃取信息的恶意软件或者进行其他恶意行为。 很显然,该网站利用了虚假信息进行网络犯罪活动。

互联网具有巨大的数据产生量、传播速度快等特征,使得手动虚假信息检查无从应对,因此我们希望创建和使用自动化虚假信息检测能力。在此,让我们共同学习识别虚假信息的一些自动化方法。

虚假信息基础概念

虚假信息是指带有主观意愿而生成的虚假信息内容或来源无法核实的信息内容,旨在使阅读者做出错误决策。 由于制造和传播虚假信息的动机和内容具有一定相关性,我们以制造和传播虚假网络威胁信息的动机分析作为研究对象。

虚假(网络威胁)信息产生的原因包括:

  • 误导:通过虚假信息内容或者提供有偏见的信息内容,引诱阅读者做出错误判断。最常见的误导性虚假的形式有:仿冒钓鱼网站;仿冒社交媒体账号;散布虚假威胁资源(IP、Domain等)使得合法访问被阻断等。
  • 娱乐:以娱乐为目的而生成的信息,例如:愚人节(4月1日)发布的某些信息,但有些读者会误信此类信息。
  • 其他:虚假信息可能还来自于未经验证而不负责任的传播、忽略信息本身而植入特定内容吸引阅读者等。

虚假信息自动化分析基础

虚假信息的分析方法带有一定的普适性,即研究虚假信息的自动化技术,可以应用于其子集-虚假网络威胁信息。

通常,分析虚假信息,可以从虚假信息的某些特征开始,包括:

  • 基于特定主题的检测方法
  • 基于读者评论的检测方法
  • 基于传播路径的检测方法
  • 基于特征选择的检测方法
  • 基于新闻验证的检测方法
  • 基于社交环境的检测方法
  • 基于群体情报的检测方法

虽然我们并未列举全部的检测方法,但依然可以看的出自动化分析方法的理论基础是基于检测算法。然而,需要注意的是信息的某些特征、读者的反应行为并不能用于验证信息的真实性,甚至是有偏见的读者所做出的反应行为可能会造成对信息真实性判断的误导。此外,一些技术流派的恶意信息制造者和传播者还可能利用机器人进行导向,使虚假信息看起来更真实。

因此,我们需要多的算法加入虚假信息检测的家族。

方法

新媒体使得单纯基于文本进行虚假信息检测不再可行,图像、视频更加频繁的出现在新媒体中,以下是在虚假信息检测中常用的算法:

  • 机器学习:朴素贝叶斯和支持向量机(SVM)作为分类算法的代表,常被用来和自然语言处理 (NLP)一起处理虚假信息的检测。朴素贝叶斯在文本分类工作上的贡献和SVM的二分类能力,使得组合应用SVM 和朴素贝叶斯进行虚假信息的检测可以获得良好的效果。
  • 深度学习:深度学习与机器学习有着千丝万缕的关联,在机器学习的基础上引入了层的概念对数据进行解释,作为深度学习家族的成员:循环神经网络 (RNN) 模型和长短期记忆 (LSTM) 同样在虚假信息的识别领域有着不俗的表现。
  • BERT:全称为Bidirectional Encoder Representation from Transformers(双向编码器表示),基于预训练、支持多种语言,BERT最重要的一个特点是上下文语境(Context)理解,这个特点使得BERT更适合用于检测信息的真假。
  • MFCN:模型使用CNN从样本的表面和边界提取篡改特征,从而可以识别图像中的拼接和局部去除问题。需要注意的是该框架中存在平滑操作,导致其常常会忽略细小目标。

接下来,让我们使用群体情报的检测方法一窥算法与检测方法之间的关系。群体情报检测涉及社交环境、群体知识、群体行为等概念,他们对推断信息可信度有着不同贡献。社交环境是指信息来源用户和传播者之间的社会关系和互动等信息;群体知识是指用户参与信息的评级、评论;群体行为是指群体的互动模式等来自一组用户的总体行为。Twitter即支持基于汇总的用户意见进行推测和证明对虚假信息进行“自我检测”。为了便于理解,我们采用简化模型。

该模型假设当用户被认为是可信时,该用户发表的信息被归类为可信信息,对该信息的回复、认可将被认为是可信的。该模型分为两个步骤,第一步:检测用户可信度,第二步,信息的可信度评价。

前面提到,一些带有特定目的的用户,希望这些虚假信息会被相信是真实的,从而进行关注或重复发布,或者未经身份验证的虚假用户为了实现个人利益而传播错误信息。

为了生成用户的可信度数据,需要对用户所发布的信息分析。当真正的用户(非机器人用户)在共享信息时,不能将用户的所有信息都视为虚假信息。 因此,为了验证用户,系统将基于模糊决策分析获取并分析用户对可信信息的反应,从而计算出用户的信任度。

假设用户 u发布了n 条信息,si是第i条信息的可信度,f(x)代表用户信任函数,采用每条信息的信任度来计算用户信用度。此处信任函数 f(x)可通过模糊语言决策分析进行计算,即通过使用基于字典的方法分析正面和负面词的存在来计算每条信息的si

为了计算si,信息中出现的单词和表情符号将被分类和计算, TP 代表正向项的数量,TN代表负向项的数量,T代表总项数。 定义PR=TP/T;NR=TN/T。

正向项的总数 TP由Pw 和 Pe相加而得,其中 Pw 和 Pe 是正向词的数量和正向表情符号的数量。 每个单词的得分为 1,表情符号的得分是单词的β倍。(β可通过距离向量进行优化寻找最优解)

TP=Pw+Pe

负向项的总数 TN由Nw 和 Ne相加而得,其中 Nw 和 Ne 是负向词的数量和负向表情符号的数量。 每个单词的得分为 1,表情符号的得分是单词的β倍。

TN=Nw+Ne

最后,通过将 PR和 NR相加来计算后分数:

si=PR+NR

第二步,通过定义模糊隶属度函数f(z)用于进一步分析,模糊隶属度函数定义如下:

经计算的信息可信度最终使用自然语言进行表示。如果用户的信息得分大部分为非常低 ,则该用户的信任度边界值被定义为非常低。 非常低和低的用户信任度将被认为会更多地传播虚假或错误信息;非常高和高的用户信任度则表明该用户对信息真伪识别的可靠性;中等信任度(比较高、不确定、比较低)的用户对信息真伪识别将处于两难境地,即既不倾向于接受也不表示反对信息。

针对该模型的测试,可以利用新闻论坛进行,在目标论坛中进行用户可信度判定,随后对其发布的信息进行评估。即分析创建信息的用户的信任度,如果该用户具有良好的信任度,则利用回复信息和回复信息的用户的信任度来推断该信息的可信度。 如果大多数具有高信誉度的用户对信息做出积极反应,则该信息被视为可靠信息。 如果具有良好信任度的用户对该信息持否定态度,则判定该信息不可靠。

小结

虚假信息对经济、政治等有着重大影响,因此研究威胁信息检测的重要性也凸显出来,尤其是在这个全球“抗疫”的时期。虚假信息的检测方法和技术很多,本文仅进行了部分介绍。需要注意的是,数据集对虚假信息检测的准确性也有很大影响,需要我们重点关注。

互联网时代检测虚假信息虽然很棘手,但事实证明通过大量的知识积累,我们仍然可以在检测虚假信息的工作上取得良好效果。

希望我们的努力工作能够还互联网一个清朗乾坤。

PS:当我开始书写公式并意识到全文没有配图,忐忑。

发表评论

邮箱地址不会被公开。 必填项已用*标注

广告赞助