当前位置: 江南文明网 > 科技 >

造个破谣而已,咋还用上AI了?

条评论

造个破谣而已,咋还用上AI了?

最近,央视等各大媒体纷纷曝光了全国多起用AI炮制网络谣言的案例,其中涉及灾害、安全事故、刑事案件等多类谣言内容,造谣的方式更是从文案到图片、视频不一而足。

看到这样的消息,总是会加重我们对AI的担忧,联想到此前的AI诈骗、deepfake等,AI仿佛是越来越坏了,至少它已经变成了一种可以被不法分子利用的工具。

但也有网友问了,不就是造个谣吗?这东西去村口转一圈,听大爷大妈聊一会,轻轻松松能收集个百八十条的,怎么还得用上AI这种高科技了?这不法分子是太懒了,还是过于缺乏想象力?

这其实是个很重要的问题,我们今天就通过这些已经被公开报道的案例,来聊一聊用AI造谣背后的动机与行为逻辑。了解了这些之后,才能更有针对性、灵活性地遏制AI造谣。

 

正所谓恐惧源于未知。AI造谣这事,乍听起来魔幻且恐怖。但如果我们逐层拆解它、了解它,会发现不过尔尔。

不必恐惧AI。就像火能带来温暖也能带来火灾,绝大多数技术都是双刃剑。重点是谁来使用它,以及如何使用它。

01 从瞎编到AI批量化高水准瞎编

在电影《保你平安》里,魏平安费劲千辛万苦,最后发现谣言来源不过是为了几块钱在论坛随便发了一句评论。

很多朋友看完电影觉得这样的动机有点离谱,但从曝光出来的AI造谣案件中,我们会发现这种卑鄙且低端的行为还真不在少数,只不过贪图论坛币的行为确实过分奇葩。大部分网络造谣者的利益动机,还是希望获取流量来换取平台补贴并变现,这也就导致他们需要在信息流或者短视频平台发布内容。

要知道,这些平台目前的流量补贴已经很低了,而即使是耸人听闻的谣言内容,也需要标题、文案、图片配合好,才能大差不差、以假乱真。结果往往是造谣者瞎编了半天,收益微乎其微。有这个能力和时间,可能还不如去找个文案、编辑类的工作来做。

这可怎么办呢?于是就产生了造谣者选择AI的第一个动机:更快、更简单地编造谣言。

我们能在很多案例里发现,用AI造谣并没有什么神秘的,不法分子就是需要AI的简单高效。根据《北京日报》8月1日报道,在一系列编造某地水灾的网络谣言背后,造谣者仅仅是利用手机浏览器自带的AI文本生成功能,输入了“暴雨”等相关关键词,就得到了水灾相关的新闻稿。

除了根据关键词直接生成通稿,AI文本生成还可以对已有文案进行渲染。造谣者会命令AI,对悬疑、惊悚、情绪对立等内容进行强化和夸大。由此生成看起来更真实细腻,且容易让人相信的谣言内容。换句话说,很多煞有介事的小作文原本要自己编,现在可以交给AI了。

还有一种用AI造谣的方法,是将原本的新闻进行移花接木。最近甘肃平凉市公布了一起案例,嫌疑人是通过AI软件来大量篡改此前的新闻内容。比如将新闻的地点、时间、人名进行替换,以此来批量制造谣言内容。

这些谣言大部分是某地发生了自然灾害、交通事故、刑事案件。由于是批量制造,这些谣言涉及各个地方,加上不同地区的用户会被算法推荐本地新闻,这些某某地发生水灾、火灾的谣言很容易产生流量。