1月7日9时5分,西藏定日县发生6.8级地震,灾情牵动人心,许多网友在社交平台上为灾民祈福。但与此同时,一些疑似虚假信息,比如AI制造的图片,正在造成广泛误导。
据媒体报道,一张戴帽子的小孩被重压在倒塌的建筑物下的照片,在某短视频平台上,至少有10个以上的账号发布,并和西藏日喀则地震关联,有些甚至获得好几万的转评赞。许多网友看到图片后,为图中的孩子难受落泪,甚至都在追问,这个图片中的小孩怎么样了,并未留意到可能的疑点。
而经查证,这张图片由AI工具创作,原始作者在2024年11月18日发布了相同画面的短视频,并声明是AI生成。
利用AI生成虚假的灾情照片,并以此博眼球获取关注,应按网络虚假信息进行处理,平台要及时清理这类照片,并对账号做出处理。AI已经广泛应用于图片与视频的制作,正当的用途应支持,而对于针对新闻事件、自然灾害的AI制作,则需要有明确的规范,不能制作、发布虚假图片、视频,误导公众。平台要以更严格的算法,识别此类图片、视频,公众也要提高对AI制作图片、视频的识别能力,防止出现以讹传讹。
客观上说,在没有发生地震灾情时,有作者用AI制作地震灾情图片,并声明是AI生成,这不会产生误导,也不会影响到救灾。而在地震发生后,利用社会公众对灾情的关注,“第一时间”发布用AI制作的虚假图片、视频,且未声明是AI制作,还故意和刚发生的地震关联,则是对公众的严重误导,会对救灾形成很大的干扰。
拿这张图片来说,不少网友并不知道这是AI生成的图片,以为真有小孩被压在倒塌的建筑物下。有网友表示,看了这张图片,十分难过、一直在流泪,并追问这个孩子究竟怎么样了,被救出来了吗?这是网友的正常反应。
如果照片是真实的,这给公众传递了准确的灾情信息,也可促进救灾部门、人员加快救援。而如果照片是虚构的,则是利用公众对灾情的关注,“消费灾难”,由此产生的“舆情”会分散救灾部门、人员的精力,影响救灾资源的配置。
也有人为AI制作的图片辩护,认为网友应该有识别能力,“一看”就能看出这是AI制作的照片,因为图片中有明显的AI制作痕迹与瑕疵。这是对公众的高要求。毋庸置疑,随着AI技术的发展,及在图片、视频制作中的广泛应用,公众确实要提高识别能力,要警惕“有图无真相”“有视频无真相”,在看到图片和视频,尤其是转发时,要进行甄别。
但这不能只靠公众自我识别。有关监管部门和平台,要为网友制作、发布AI图片、视频立下规矩。由于新闻、灾情报道强调真实性,AI可以用于辅助报道、制作更有利于介绍灾情的图片和视频,但不能偏离“真实”的底线。“无中生有”制作小孩被压在倒塌的建筑物下的照片、视频,这本质就是编造、传播假新闻。如果不对图片、视频加以禁止,就会出现AI制作的虚假图片、视频满天飞,这会影响公众对灾情的关注,也不利于救灾。
最近,社会舆论对平台的算法十分关注。各平台也在推进算法公开、透明。怎么识别、推荐AI生成的图片、视频,显然也是平台算法的一部分。要通过加强对AI生成图片、视频的规范发布,防止此类视频误导公众,以及误导AI的正确应用。