导语:多地警方对部分MCN机构负责人进行了行政处罚,原因是利用AI大量生成谣言信息,用以赚取平台的流量分成。
“西安突发爆炸”“重庆巫溪一民房发生爆炸事故”……这些耸人听闻的消息,竟都是利用AI软件炮制的谣言。日前,多地警方对部分MCN机构负责人进行了行政处罚,并封禁其网络账号。原因是利用AI大量生成谣言信息,用以赚取平台的流量分成。
没想到,有了AI“赋能”,一些别有用心者的造谣能力也大幅提升。这些MCN机构通过AI软件,给出关键词,软件便会自动在网络上抓取相关信息,生成几百到上千字的文本,配上貌似和事件相关的虚假图片,从而形成一篇看起来信息量很大,实际上子虚乌有的内容。
其中江西南昌一家MCN机构,最高峰一天能生成4000至7000篇,最高的一条收入700元,初步估算每天的收入在1万元以上。经警方调查,实际控制人王某某共经营5家MCN机构,运营账号842个。
这确实是令人触目惊心的数字。有了新技术,造谣的成本近乎为零——甚至连时间成本都不需要了。这也意味着虚假信息扩散的成本也急剧降低,可能对社会信息生态造成极大破坏,对这种行为不加以规制,可以想象信息空间会变成什么样子。
事实上,监管部门对网络谣言的治理一直在持续。今年4月23日,网信办在全国范围内开展为期两个月的“清朗·整治‘自媒体’无底线博流量”专项行动,整治的重点就包括“摆拍发布涉及国内外时事、社会民生等领域虚假事件信息。拼凑剪接网络视频图片,篡改事件发生的时间、地点、人物等要素,以假乱真欺骗公众”。
魔高一尺,道高一丈。考虑到如今虚假信息生成能力之强,除了线下的查处,线上的治理手段恐怕也要进行技术迭代。一个MCN机构一天就能发布数千篇AI生成内容,这意味着对互联网空间的信息追踪、关键词捕获、自然语言搜索等,都需要提高相应的技术规格,以应对这种批量生成、大水漫灌的新型信息乱象。
对此,拥有技术优势的平台,更应该肩负起主体责任。之所以这种造谣信息可以“玩得下去”,就是因为它们有利可图。比如根据一些平台规则,账号根据阅读、评论、转发数量等获取相关流量收益,每千人有效阅读量有1—2元的奖励。
很多时候,不管平台愿不愿意承认,平台也是谣言信息“获益方”之一——大量信息聚集,可以极大提升平台本身的活跃程度,所以有些平台就疏于治理,甚至变相鼓励这种能带来流量的虚假信息生产。因此,要想从源头上斩断造谣信息的利益链,恐怕还需要平台通过更严格的信息过滤、账号处理等,让流量生意无利可图。
其实在“清朗·整治‘自媒体’无底线博流量”专项行动中,也对平台做出了要求,比如短视频和直播等重点平台要加大对虚假摆拍信息的识别和清理力度,要求资讯类平台清理标题党、要素欠缺、不具公共价值的“新黄色新闻”等。平台应当意识到自身肩负的社会责任,切不可在流量的诱惑下,对这类信息睁一只眼闭一只眼。
类似的事件对公众也是提醒。如今AI造假已经零成本,读者阅读到这类耸人听闻的信息时不妨多留个心眼,慎点转发、评论键。在AI时代,信息的鱼龙混杂程度已经呈几何级数增长,应当更加审慎地判断,切不可轻易被各类虚假信息撩拨情绪,落入信息陷阱之中。
扫一扫,或长按识别二维码
关注贝塔网官方微信公众号
我们有直面错误的勇气,点击按钮即可发言。
您也可以邮件:
prnews@iresearch.com.cn