豆包把黎元洪认成范伟,AI的“脸盲症”该治了
“搜黎元洪,出来的却是范伟”——这听起来像段子,却真实发生在字节跳动旗下的AI助手豆包身上。据现代快报报道,近日,有网友发帖称,用豆包搜索黎元洪,给出的是此前演员范伟的相关PS图片。网友认为,“近代人物还用得着给演员的图片吗?‘豆包’越来越不智能了。”
豆包回应称,因早年《建党伟业》选角时的一张PS图在网上疯传,被部分图库和百科混收录,导致搜索结果中PS图占比过高。
这个解释看似合理,却让人细思极恐:一个以“智能”为卖点的AI助手,连最基本的人物图像识别和事实核查都做不到,只会按网络热度“照单全收”,那它还值得信赖吗?
这场乌龙的本质,是AI领域著名的“信息幻觉”问题。当一张PS图的网络传播度远超历史原照时,缺乏鉴别能力的AI会不假思索地把“假图”当作“真相”推送。更令人担忧的是,用户往往对AI输出抱有天然信任——如果有人在论文、科普文章甚至新闻报道中直接使用豆包提供的错误图片,这笑话就闹大了。
豆包不是第一个犯错的AI,也不会是最后一个。此前,多家大模型产品都曾出现过史实错误、张冠李戴等问题。但“黎元洪事件”的特别之处在于,它暴露了AI在视觉信息处理上的脆弱性:文字错误还能靠上下文纠偏,而一张以假乱真的图片,传播力与误导性远比文字更强。
有网友调侃:“以后搜华佗会不会出来喜来乐?”笑声背后是真实的不安。一位用户直言:“被豆包坑过几次,现在不用了。”信任一旦流失,重建谈何容易。
那么,责任在谁?当然是AI开发方。技术可以试错,但不能把“网上都这么传”当作免责牌。豆包明知这是一张PS图,明知它被“混收录”,为何不在算法层面加以甄别?为何不能主动标注“该图片为网络传闻,非历史原件”?更根本的是,AI公司在追求响应速度和信息丰富度的同时,有没有建立足够的事实核查与纠错机制?
所以我们需知道,AI是工具,不是权威。它擅长归纳和生成,却不擅长判断真伪。凡是涉及事实查证的内容——尤其是历史、法律、医学等严肃领域——务必多源核实,不能把AI当作“免检产品”。
同时,这也是对互联网信息生态的一次提醒。每一张被反复转发的PS图、每一句被断章取义的名人名言、每一段被篡改的历史事件,最终都会成为AI学习的“教材”。如果网络环境充斥着以讹传讹,我们又怎能指望AI独善其身?
豆包需要明白:用户需要的不是一个会讲段子的聊天机器人,而是一个值得信赖的信息助手。如果连黎元洪和范伟都分不清,再智能的标签也是徒有其名。这个“脸盲症”,真的该好好治一治了。


