3 月 10 日之后,有一则“有顶流明星在澳门输了 10 亿”的消息被广泛传播开来,这引发了网民们的热烈讨论以及各种猜测,与之相关的话题也频繁地登上了热搜热榜。然而,这其实又是一起由 AI 制造的谣言。
公安网安部门经过查明,有一名网民叫徐某强,他是男性,36 岁。他为了能够博取流量以及谋取非法利益,在 3 月 10 日这天使用了软件“某书”里面的 AI 智慧生成功能。他输入了社会热点词,然后制作出了标题为“顶流明星被曝境外豪赌输光十亿身价引发舆论海啸”的谣言信息。并且他通过互联网平台将这些谣言信息对外进行了发布。公安机关依据相关的法律法规,对徐某强作出了行政拘留 8 日的处罚。
这个谣言有很多“看点”,明星、豪赌以及 10 亿这些关键字都很劲爆,都击中了舆论场的兴奋点。消息刚一出来,就如同这个假新闻的标题那样,“引发了舆论海啸”,甚至使得多位男明星站出来进行辟谣。
网传谣言截图
说是“又一起”,是因为 AI 谣言近期极为频繁。仅在前两天,“上海退休教授靠阳台核电池供电”这则消息在网上开始流传,然而随后便被查明是由 AI 生成的图片剪辑而成的;今年 1 月 7 日,西藏定日县发生 6.8 级地震,之后大量“小男孩被埋图”在互联网平台上广泛地传播开来,接着也被证实是“AI 作品”。
当然,这并非意味着 AI 自身会进行造谣。相关的 AI 谣言,大多是那些别有用心的网民借助 AI 工具所制作出来的。因此,治理 AI 谣言首先就应当严厉惩处那些始作俑者。然而,另一方面,当极为强大的 AI 工具被越来越多地用于生产谣言之时,“治理 AI”这一工作也需要同步进行。
AI 无疑极大地降低了信息造假的门槛。过去那种“纯手工制作”的假新闻,因为写作者通常不熟练,所以在信息中很容易暴露出破绽。然而,AI 要“专业”得多,它能将新闻的 5 个 W 要素编写得毫无瑕疵,还能自己生成图片,使假消息看上去“有图有真相”,从而更易于达到以假乱真的效果。
关键在于,AI 的造假能力几乎没有上限。2024 年,南昌有一家 MCN 机构因利用 AI 造谣而被查处。该 MCN 机构借助 AI 生成文章和图片,在最高峰的一天能够生成 4000 至 7000 篇,并且每天的收入都在万元以上。如此庞大的体量,使得所谓“AI 污染”之类的担忧变得切实可行。
今年年初,世界经济论坛发布了《2025 年全球风险报告》。该报告列举了今年全球面临的五大风险,其中就有错误和虚假信息。错误和虚假信息与武装冲突、极端天气、地缘经济对抗、社会极化并列。由此可见,虚假信息对正常社会秩序的冲击是真实存在的,并且这种冲击近在眼前,迫切需要采取行动进行改变。
事实上,监管部门始终在对 AI 生成内容的管理进行升级。《互联网信息服务深度合成管理规定》以及《人工智能生成合成内容标识办法(征求意见稿)》等,分别对生成内容的标识以及使用范围等方面做出了规定。
然而在现实里,这些规定要变成有强制力的规范,并非易事。一些互联网平台的提示不够清晰,很容易被读者给忽视了;有些平台遵循“先发后审”的原则,给假信息的传播提供了时间上的窗口;还有一些平台的技术能力存在局限,无法识别出 AI 作品,致使虚假信息得以漏网,这些都是原因。
这意味着围绕虚假信息的治理要持续用劲。其一,得进一步把规则明确,增强平台对 AI 生成内容主动且显著的标识,让平台的审核责任更压紧。其二,还需要主管部门、互联网平台、科研机构等一起形成协作合力,提升技术甄别能力,以维护互联网信息生态的纯净。
无论怎样,人们都必须重视 AI 被污染这一情况。要是不对 AI 内容的制作以及传播进行规制的话,那我们的信息空间很可能很快就会被虚假消息所填满。