被AI假新闻收割眼泪?专家:提升公众AI素养是长期解决方案
2024年国内50个AI相关风险舆情案例类型
*数据来源:根据2024年搜索热度较高的50个国内AI风险相关舆情案例统计(统计日期截至12月20日)
2024年国内50个AI相关风险舆情案例风险分布
一个头戴彩色毛线帽的小孩被压在废墟下,周围是散落的瓦砾和碎石。稚嫩的脸上覆满了尘土,黑亮的眼睛向上望着,仿佛在寻找希望。
2025年初,西藏日喀则地震发生后,这张图片牵动了无数网友的心。相关视频、图文被大量转发,下方许多条留言都在关心这个孩子是否平安获救。直至1月8日,词条“地震废墟中戴帽小孩图片是AI生成”冲上微博热搜,不少人才发现,自己被假新闻收割了眼泪。
据南都大数据研究院不完全统计,2024年搜索热度较高的50个国内AI风险相关舆情案例中,超1/5与AI造谣有关。专家认为,治理AI谣言,提高公众AI素养是关键。
AI“批量化”造谣
AI生成虚假新闻广泛传播,甚至有人以此牟利
其实早在2024年11月,这张全网热传的被压在废墟下的儿童图片已出现在社交媒体上,其创作者当时注明该图是由AI生成。
地震发生后,这张图被大量自媒体转发,但图片系AI生成的附注却消失不见,还带上了日喀则地震相关词条,以及“祈祷震区朋友们平安无事”等文案。这种拼接让观众误以为图片是来自灾区的影像。发布账号通过赚取观众同情,获得流量。
如果说,这种AI造谣手段是将AI生成图片素材与地震信息肆意拼贴以误导观众,另一种AI造谣方式,则是直接利用AI“无中生有”,由AI根据已有素材或者相关提示词,直接生成文本、图片及视频等虚假新闻内容。
同样在今年1月,美国加州山火肆虐。1月12日,国内社交媒体上开始流传山火已蔓延到好莱坞的相关图片和视频。视频中,洛杉矶市郊山顶已经被大火吞噬,著名地标“好莱坞”(HOLLYWOOD)广告牌矗立在一片火海中。许多网友信以为真。
事实上,据法新社驻洛杉矶记者现场确认,“好莱坞”未见损毁;全球火情监测系统FIRMS的地图上,也未显示该地附近有火情发生。“好莱坞”燃烧的视频和图片,其实是由AI生成的,最早出现在国外“X”平台上,然后被国内自媒体搬运,在社交平台上广泛转载传播。
利用AI技术造谣日趋频繁。南都大数据研究院通过爬取分析2024年百度新闻中搜索热度较高的国内AI风险事件相关报道,统计出50个AI相关应用舆情案例,发现其中超1/5与AI造谣有关。2024年7月,四川警方通报了10起AI造谣典型案例,其中包括用AI生成“云南山体滑坡致8人遇难”的虚假新闻、伪造“喜德县地震”灾情图片,以及编造“巴中警民对峙”事件等。这些肉眼难辨的AI假新闻常见于备受关注的议题,很容易挑起观众情绪。
用AI“批量化”生产谣言,甚至已成为一种牟利手段。2024年4月,公安部通报了一起MCN机构利用AI造谣的案例,江西男子王某江经营5家MCN机构,运营自媒体账号842个,组织团队利用AI工具批量生成虚假消息,单日产量高达4000至7000篇,其中一条最高收入可达700元,日均收入超过1万元。
当下,AI工具的普及大幅降低了造谣成本,仅需输入简单的关键词,AI软件便可通过网络抓取相关素材,自动生成包含时间、地点、人物和事件等要素的文本或视频,呈现出看似真实的“新闻”内容。可以说,AI技术的应用,给网络信息生态带来了新的治理难题。
AI造谣治理
标识和提示AI生成内容
已有团队开发“用AI检测AI生成内容”
从内容生产层面来看,AI技术大大降低了谣言的编造门槛。“有图有真相”根本难不倒它,不仅图片,借助AI工具,编造音视频内容也能信手拈来。AI生产出的逼真影像,第一时间冲击观众的感官系统,情感驱动人们对内容做出直接反应,从而忘记了冷静思考,助力谣言传播。
此外,社交媒体上存在大量的“社交机器人”,能够快速、大规模地发布和转发内容,迅速放大虚假信息的传播范围和速度,还可以通过大量发布特定观点或情感化内容,影响公众对事件的看法,甚至改变舆论走向。以往社交机器人往往比较粗浅和简单,较容易与真人区分,但当它们接入AI大模型后,社交机器人生产的信息将越来越像人类创作的内容,转发、评论等互动表现也与真实用户几近一致,变得难以辨别。
目前,针对AI造谣已有一些应对措施。国家已制定了一系列明确的法律法规,对AI造谣行为进行规制和监管,例如《网络音视频信息服务管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》等,均对深度合成技术生产的内容提出了监管要求,包括不得用于制作、发布、传播虚假新闻信息,制作、发布、传播非真实音视频信息应当以显著方式标识。2024年9月国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》,全国网安标委同时发布了配套的《网络安全技术人工智能生成合成内容标识方法》,拟规定在技术层面对AI生成内容进行标识。
平台层面,一些社交媒体平台加强内容审核机制,对AI生成内容进行标识和提示。如小红书启动了AIGC治理体系建设,对识别为疑似AI生成的内容进行显著标识;抖音陆续发布了《关于人工智能生成内容的平台规范暨行业倡议》《AI生成虚拟人物治理公告》等一系列公告,并持续对多种AIGC造假内容进行严厉打击。
此外,还可“用魔法打败魔法”,即用AI检测AI生成内容。国内已有多个团队正在投入开发AI生成内容检测技术,例如腾讯混元安全团队朱雀实验室研发了一款AI生成图片检测系统,通过AI模型来捕捉真实图片与AI生图之间各类特征的差异,包括图片的纹理、语义及隐形特征等进行区分,腾讯称最终测试检出率达95%以上。
在上海交通大学国际与公共事务学院长聘副教授贾开看来,虽然可以通过技术手段来治理AI合成虚假新闻的问题,但这只是短期的解决方案。长期来看,仍需要提高人的素质和AI伦理意识。
从地震被压儿童和好莱坞大火两个案例来看,AI生成内容并非没有破绽。废墟掩埋的儿童长有6根手指;好莱坞标志牌上有的多了一个字母“L”,有的则多了字母“O”,这些明显的错漏均符合AI生成内容的显著特征,但并未引起人们的关注。甚至有的好莱坞燃烧图片下角还带有“Grok AI”的水印,表明其由马斯克旗下公司XAI开发的人工智能工具生成,也被不少观众忽略。
一直以来,提高媒介素养与信息辨别能力都是网络生态治理的关键,进入AI时代亦是如此。正如贾开所言:“我们不能仅仅依赖技术或制度手段来应对AI生成虚假信息,人的教育和意识提升才是关键,这是一个更长期的、久久为功的方式。”
专家观点
公众源头参与是AI治理关键
制度上应为公众提供参与空间
AI的不当应用,除了会带来虚假信息泛滥,更有违法侵权,引发道德伦理争议等风险。据南都大数据研究院不完全统计,在上述50个国内AI舆情案例中,近半数涉及侵权违法行为,常见案例包括利用AI造谣扰乱社会秩序,触犯《中华人民共和国治安管理处罚法》;深度合成技术被用于诈骗,触犯《中华人民共和国刑法》;以及未经他人许可使用AI换脸技术,侵犯公民肖像权等。还有24%涉及伦理道德争议,“AI复活”和“AI恋人”是其中的代表性案例。
AI应用带来的风险是复杂且多维的,在贾开看来,主要分为三个层面。首先是已被广泛讨论的算法治理问题,包括算法黑箱、公平性、劳动替代和虚假信息等。
其次是技术发展本身的问题,特别是AI生成过程中可能出现的结构性失衡。例如,大模型训练需要大量资源,许多公共机构和普通研究者难以获取,这可能导致技术的集中化和垄断,加剧公共与私营部门之间的不平衡,进而影响AI应用的普惠性,限制其潜力的发挥。
第三个层面则是人的发展问题,AI技术和产品的发展是一个动态完善的过程,人们无法预知和完全消除其带来的所有风险。如果人的能力、意识滞后于技术发展,尤其是开发者在智力、安全意识方面滞后,这可能会带来更大的风险。
而对于AI治理机制,贾开认为,在AI时代,不再会有绝对安全的技术标准。因此,除了制定标准,AI治理机制还必须包括接受者、被影响者以及其他利益相关方的参与。换句话说,普通公众在这个过程中扮演的角色变得尤为重要。但在当下,人在技术应用的过程中,如何提升能力,思维如何跟上技术发展,如何增强AI伦理教育、提升AI治理意识,往往是被AI治理所忽略的重要问题。
普通公众如何参与AI治理?贾开认为,首先需要意识到AI的变革已经开始并将持续发展,应该积极接受并拥抱这种变化。从行为上,公众应当更加积极地参与AI的发展,不仅仅是将AI视为一个技术工具接受,更需要参与到AI技术的演化过程中,同时,制度上也应为公众提供参与的空间。例如大模型开源虽然会有很多的争议和风险,却可以使普通公众也能接触和参与AI的研发。
“在当前时代,公众的参与价值非常高,甚至比技术的进步本身更为重要。参与不仅仅是接受产品,更是从源头上参与,推动技术与社会需求的对接。”
声音
我们不能仅仅依赖技术或制度手段来应对AI生成虚假信息,人的教育和意识提升才是关键,这是一个更长期的、久久为功的方式。
——上海交通大学国际与公共事务学院长聘副教授贾开
策划:王卫国 邹莹
统筹:张纯 张雨亭
采写:南都见习记者 陈袁
数据图:欧阳静
制图:董淑云(DeepSeek、可灵AI)
扫描二维码推送至手机访问。
版权声明:本文由0538资讯网整理发布,内容均来自互联网,如有侵权联系8641340@qq.com删除。