刘建忠
人工智能正在以前所未有的速度重塑信息环境,然而,这把利器在给新闻真实性带来挑战的同时,也带来了极具破坏性的恶果。君不见,由AI生成的虚假新闻正在不断蔓延,已经触及社会难以容忍的底线。当伪造的图片、音频、视频乃至完整事件报道充斥于各种平台,真相的地基正被算法悄然掏空。
AI造假远非普通谣言可比,它能够在分秒之间生成图文并茂的“新闻”,并精准投放到特定人群,造成视听混乱,让受众真假难辨。这类假新闻之所以难以遏制,原因有三:一是生产成本极低,一句指令就能批量产出文本、音视频等多形态虚假内容;二是伪装度极高,通过嫁接真实场景、模拟当事人语气,形成“以假乱真”的迷惑效果;三是传播速度极快,借助算法推荐实现指数级扩散,短时间内引发恐慌或误导认知。近两年来,从虚假“寻人启事”到模仿明星带货,从捏造公众人物言论到仿冒权威媒体,从虚构国际事件到伪造地方灾难,AI造假事件屡屡发生,其危害已渗透到民生、商业、公共安全等多个领域。传统“谣言止于智者”的应对模式,在算法的海量生成与精准传播面前显得疲软无力。
更值得警惕的是,虚假信息的制造已形成灰色产业链。部分个人或团体利用AI工具批量生产吸引眼球的虚假内容,通过博取流量,谋取暴利,有的竟然赚得盆满钵满。当信息环境充斥着各种难以辨别的“合成”事实时,公共讨论的基础便会遭到侵蚀,社会共识的形成就面临着极大的挑战。
AI生成假新闻泛滥的背后,是技术伦理缺位与监管滞后的双重困境。当前,技术开发多聚焦于提升生成效果,而对内容的真实性保障与追踪溯源关注不足。法律法规往往落后于技术迭代,对于AI造假的责任认定、平台审核义务、受害者损失赔偿等尚存模糊地带。
笔者认为,要遏制AI造假,必须采取系统性对策。在技术层面,要加快发展深度伪造检测技术,并推动“数字水印”等溯源手段的应用。同时,平台必须承担主体责任,完善AI生成内容的标识与审核机制,打破“流量为王”的推荐逻辑。在法律层面,则需明确AI造假的法律后果与追责机制,通过“强制标识AI生成内容”“明确三方责任”“专项整治行动”等措施和手段筑牢防线,提高违法成本。在公众层面,要进一步提升受众的数字素养与批判性思维,学会交叉验证信息源,抵御虚假信息的侵袭。
治理AI生成的假信息,不仅是技术挑战,也是对社会价值观的考验。我们在拥抱技术创新红利的同时,更要守住真实与诚信的底线,敢于对AI生成的虚假信息说“不”,并将其拒之门外。唯有从法律层面、技术层面发力,同时压实平台责任、提升公众素养,多方协同共进,才能在流量与算法的时代,守护好一个不被谎言淹没的公共空间。否则,当真实成为奢侈品,社会赖以运行的信任纽带就会变得岌岌可危,到那时,后果将不堪设想。

