“讨好型”的生成式AI为什么说谎?
你被你的“AI小弟”骗过吗?
2025年开年的AI“明星”DeepSeek被接二连三地接入各行各业的工作流程中,人们在惊叹于其秒速生成的行业报告、法律文书时,却也发现,这些流淌着逻辑美感的文本中,正演绎着赛博世界最大的黑色幽默——“一本正经地胡说八道”。
《纽约客》杂志2023年11月20日封面。
当《平凡的世界》作者莫名其妙从路遥变成“朱大建”、白居易的代表作中无中生有出一篇“新丰折枝”、霍光从西汉权臣变成“清朝将军”……打开小红书,只要在搜索框输入“DeepSeek编造”“DeepSeek 睁眼说瞎话”一类的词条,就会看见大量网友发文控诉DeepSeek在对话过程中提供假资料、假文献、假作者等信息。
就像过度热情却不够成熟的“实习生”,AI会用华丽的辞藻填补知识空白,把数据碎片拼成看似合理的故事——它为什么会胡说八道?又该如何善用?事实上,要理解它“善意的谎言”,更要先理解生成AI的内在属性。
一切只为“讨好你”
哪怕需要虚构细节
“这比所有人写的都好!”
在广告、新闻等文化行业,一场由DeepSeek带来的行业变革正在不断发酵。来自上海的广告策划Ivy告诉南都、N视频记者,当她的老板刚接触到DeepSeek的时候,看到其词藻华丽的文风便振臂一挥,命令下署按照DeepSeek生成的文章写出广告方案。于是Ivy的工作从“兢兢业业给老板擦屁股”,变成了“兢兢业业给老板的DeepSeek擦屁股”。
然而,这屁股越擦越擦不干净——Ivy发现,DeepSeek生成的内容前后逻辑不通、使用的案例全靠瞎编,毫无事实依据,以及就像“进名媛培训班了一样,把品红酒的套路运用在每个产品的策划上,不管是否合适”。
然而,尽管多次表达了不满,Ivy所在的广告公司却还是因为新加入的“AI实习生”们,将员工们原本的产出时间缩短了一倍。老板们觉得AI犯错是小事,只需要人工微调,可员工们觉得与其费力地扭转AI的错误逻辑,还不如一开始就自己动脑、动笔。
小红书上层出不穷的“AI受害者”。
而在法律界,第一批用DeepSeek打官司的人,已经败诉了。来自福建的程序员MOMO在起诉某公司时没有请律师,而是尝试用DeepSeek撰写申诉状和证据清单,尽管看起来头头是道,然而在法庭上,申诉状出现了很多基本的法律适用错误,近乎无效。更重要的是,因为起诉人并没有法律常识,所以一开始便会给DeepSeek的解答预设错误的方向,而DeepSeek不会告诉用户“你是错的”——而是会沿着这个错误的方向“继续说下去”,脑补和编造许多案例、法条、事实,只为了“讨好你”,让你的结论更加自洽。
有人说“不花钱找律师信DeepSeek,就和不去医院看病找百度一样”。尽管互联网上出现大量用DeepSeek求医问药的帖子,很多把DeepSeek作为健康搜索引擎的人,也已经开始感觉到不对劲了。有网友分享,在DeepSeek的界面上输入“肺性脑病”,结果出来的却是关于“肝性脑病”的介绍,让他“差点自我怀疑”。广中医毕业的中医师李成俊在接受南都、N视频记者采访时表示,在医生的视角中,DeepSeek的出现也带来了一种“医患新生态”——有很多患者拿着DeepSeek去看医生,“DeepSeek告诉我现在这个情况是什么诊断、我得用什么药,你给我开这个药吧”。然而,医学不单纯是一门“技术活”,医者的经验和直觉,以及对患者个体差异甚至顾虑与处境的考虑,都将在治疗决策中起着重要作用。
同时,南都、N视频记者发现,在DeepSeek官方网站上展示的《用户协议》中明确指出:“咨询医疗、法律、金融及其他专业问题时,请注意本服务不构成任何建议或承诺,不代表任何专业领域的意见。”也就是说“D医生”是不为建议担责的,全然信任“D医生”的诊断,事实上是一种“大冒险”。
DeepSeek官方网站上展示的《用户协议》。
AI:臣妾做不了“知识库”
为什么生成式AI会一本正经地系统性地编造事实?是技术缺陷还是算法特性?也许当DeepSeek听到这个问题后——尽管它依旧会一本正经地分析自己的不足,但心里却可能会觉得“有点儿冤”。
北京大学王选计算机研究所教授万小军在接受南都、N视频采访时表示,要适用语言大模型,需先理解其背后的底层原理。目前,通用语言大模型,不论是DeepSeek、ChatGPT还是KIMI,大模型的训练目标是生成符合语言模式的文本,而非确保事实准确,因为它的本质是“概率预测”,而不是“知识库”——也就是说,他们所生成内容的核心是预测下一个词的概率分布,然后进行采样输出,而不是去验证事实。
博主“@梦大明白”则对此进行了更加生动的解释:AI告诉你“狼吃羊”并不是知道食物链的底层原理,而是因为它所处理的海量文本中,当狼和羊同时出现的时候,“狼吃羊”的概率要远远大于“狼爱上羊”。
“业界通常将该问题称作大模型的‘幻觉’,可以说是大模型的算法特性。”然而,万小军认为,这种特性不应简单归结为一种缺陷,因为大模型的“幻觉”在创意写作、新思路发现等方面可以发挥积极的作用。
清华大学新闻与传播学院、人工智能学院的双聘教授沈阳则将这种创意的特性运用到了艺术创作之中。2月27日,沈阳团队通过AI创作生成的画作“AI绘画的共生探索”作品展在郑州博物馆开展,42件52幅AI艺术作品,构筑出前所未有的视觉世界。
沈阳在接受南都、N视频采访时表示,他本人先前完全不会画画,甚至觉得自己与艺术无缘,但AI的出现改变了一切。沈阳同样认为,AI概率模型的内在属性,虽然在预测出概率之后,会自动“脑补”一些虚假内容,让整个概率更加自洽,但不可否认的是,它的确是创意加成的好工具。“它意味着,创作门槛被技术降低,每个人都可能成为艺术爱好者。”
沈阳用AI创作的画作。
目前,沈阳与团队还在尝试使用AI创作歌曲,在详细的指令后,AI也常常带给人耳目一新的作品和听感。因此,用“两极管”思维对待这一新鲜事物,似乎并不妥当。
“批判性思维才是永不过时的操作系统”
技术革命的浪潮中必然会溅起风浪,因此航行中仍需要智慧的航船来辨别。
在大模型研发与应用过程中,技术创新和内容合规缺一不可。万小军表示,在促进技术进步的同时,确保生成内容符合法律、伦理和社会规范——一方面,政府和相关机构应对AI生成内容进行必要监管,确保在关键应用场景下AI生成内容的真实性。另一方面,应积极开发和应用技术手段,如AI生成内容和幻觉检测工具、数字水印技术等,识别和标记AI生成内容以及非真实内容。
“而更重要的是,用户本身也需要提高对AI生成内容潜在风险的认识,培养批判性思维和信息鉴别能力,批判性思维才是永不过时的操作系统。”万小军说。
那么,普通用户要如何辨别AI生成内容的真伪?鉴别内容真伪很具有挑战性。万小军建议,首先要核实信息来源,检查AI生成内容中自带的信源链接的可靠性;其次,检查内容细节,评估内容的逻辑是否合理;最后,使用外部工具进行检查,利用事实检查工具以及搜索引擎对重要信息进行确认。
AI大模型DeepSeek。图:陈灿荣。
沈阳指出,比如在对DeepSeek等AI模型下达指令时,可以尝试点击“联网搜索”,同时在指令中描述:“请你不要胡编乱造,我需要严格的、真实的信息”,尽管不能保证它完全不会“胡编”,但它出现“幻觉”的概率可以有所降低。
在小红书上,人们用年轻人喜爱的“MBTI”来描述DeepSeek的人格特征,很多人表示,本以为DeepSeek是注重逻辑和解构复杂命题的“INTJ”,可后来才发现,它是浪漫而富有想象的“INFP”。不论是AI的哪种“性格”,在人类的合理运用、指明方向后,都能在不同领域迸发出强大的动力。正如记者尝试让DeepSeek解释自己“为什么有时会说谎”,它的回答:“我们需要的不是完美无缺的工具,而是清醒睿智的航海家。毕竟,在真与假的博弈中,人类用了百万年才点亮理性之光,这场认知革命,终究需要人类自己来完成。”
采写:南都、N视频记者 刘红豆
扫描二维码推送至手机访问。
版权声明:本文由0538资讯网整理发布,内容均来自互联网,如有侵权联系8641340@qq.com删除。