AI 生成虚假新闻,传播力大幅提升,公众难以辨别,如何应对?
近期,多地公安机关发布了多起利用AI工具造谣的相关案件,如发布“西安突发爆炸”虚假新闻的账号所属机构,最高峰一天能用AI生成4000至7000篇假新闻,每天收入在1万元以上。
随着AI对自然语言处理和深度学习技术的发展,AI生成的虚假新闻也是越来越能“以假乱真”。选用大量与百姓生活密切相关的选题,加入夸张的故事情节和猎奇性成分,甚至模仿新闻加入“据报道”“相关部门提醒”等字眼来获取关注和点赞。AI的介入使得谣言的生成和传播更加高效,数量级和传播力也大幅提升,特别是还配着“有图有真相”的图片和音视频,导致这类假新闻让公众难以辨别。
AI技术作为一把双刃剑,在帮助创作者创造更加丰富多元的内容的同时,也降低了内容生产的门槛,让不法分子钻了利用其制造谣言牟利的漏洞。这不仅与科技向善的初衷背道而驰,也搅混了清朗的网络舆论场,因此必须警惕AI技术被滥用的风险。
AI谣言的传播速度和范围都远超传统谣言,为了治理新型乱象,今年4月,中央网信办发布专项行动通知,要求使用AI等技术生成信息的,必须明确标注系技术生成。面对AI制造谣言技术的快速迭代,相关法律法规和监管措施也要与时俱进。
AI技术终究只是工具,如何利用,还是取决于背后的主体。明确AI造谣责任主体的法律责任尤为重要,必须依靠法律依据对炮制谣言甚至借此牟利的不法分子予以严肃打击及清理。
作为AI谣言的第一道关卡,平台需尽到监管责任,激励创作的同时遏制虚假信息的传播,对信息来源多渠道进行核实,对内容中夸张、情绪化等成分多加审核,合理强化违法成本。也应对网民们进行网络信息素养相关教育,提升对AI谣言的甄别能力,理性判断网络信息的真伪,不信谣、不传谣。“全民反谣”,共同维护一个真实、可信、健康的公共秩序与网络环境。