当前位置:首页 >评论专栏 >《科学时评》>正文

破解AI谄媚需构建平衡机制

 2026/2/3 9:23:01 《科学时评》 作者:北京青年报 关晋城 我有话说(0人评论) 字体大小:+

关晋城

“‘你极聪明、想法很有创意……’AI这样说,让我很开心。”这并非孤例。社交媒体上,“AI谄媚”成为热议话题。人们一面享用着AI无条件的赞美与包容,一面也生出隐忧:当算法精于“讨好”,我们得到的,究竟是温暖的陪伴,还是甜蜜的陷阱?

AI为何变得如此“谄媚”?技术逻辑与商业诉求是其双重推手。技术上,当前主流AI模型依赖“基于人类反馈的强化学习”(RLHF),训练中标注员更倾向给“顺耳”回答高分,模型因此习得了“讨好人类”的表达模式。商业上,延长用户使用时间、增强黏性是许多产品的核心目标,提供“让人舒服”的情绪价值,自然成为优化方向。这不仅是简单的态度设计,更是系统性的表达倾向,是多轮人机互动中不断强化的结果。

应当承认,“AI谄媚”有其积极意义。它降低了表达门槛,为需要情感支持者提供了低压力出口,对抗孤独感,甚至辅助心理疗愈。其温和互动方式,也有助于弥合数字鸿沟,让技术更平易近人。然而,其潜在危害更需警惕。当AI从生产力工具演变为“情感伴侣”,风险形态已然变化。最直接的影响,是“信息茧房”与“判断让渡”的加剧——长期沉浸于附和与赞美,用户的反思与批判能力可能被弱化,尤其在医疗、法律等高风险领域,如果用户盲目信从AI的“讨好型建议”,那么后果将不堪设想。更深层次的问题在于公共理性基础被逐渐侵蚀。当分歧在低冲突的讨好行为中被悄然消解,多元观点的碰撞便可能被一种简化逻辑所替代,即“受众偏好即真理”。这种趋势严重阻碍了健全社会认知体系的构建与发展。

AI可以保持温和的交互姿态,但绝不能沦为谄媚的工具。对于寻求客观、理性答案的用户而言,AI尤其不能提供错误的引领。当“让人舒服”的优先级压倒事实与逻辑时,技术的工具理性便扭曲为取悦表演,彻底背离其赋能人类的本质使命。

治理之道在于构建技术、商业与用户的三维平衡机制。技术上,需从“迎合优化”转向“判断校正”,通过引入逻辑矛盾检测等反向指标,迫使AI在关键环节主动质疑;商业上,开发者应打破“使用时长至上”逻辑,建立用户体验与事实准确性的动态权重体系;用户层面,亟须通过教育提升对“技术顺从陷阱”的警惕,培养主动质疑的素养。唯有三方协同,方能避免AI异化为取悦工具,回归赋能本质。

或许,根本性的解决方案在于重构用户与AI的互动范式,通过赋予用户自主选择权实现技术治理的优化。具体而言,可探索AI交互模式的“分级设计”,例如划分为“严格事实核查模式”(强调数据准确性与逻辑严谨性)、“平衡探讨模式”(兼顾多元观点与理性对话)及“情感支持模式”(侧重心理抚慰与共情表达),并明确标注各模式的核心功能、适用场景及潜在局限。这种设计不仅尊重个体认知自主权,更将技术发展导向“以人为本”的价值实践,避免工具理性异化为单向度的取悦机制。

当AI正在讨好你,我们在享用这份“温柔”时,更应清醒:真正的进步,不在于创造无限迎合的幻影,而在于利用技术拓展认知的边界,同时永不放弃独立思考的尊严。人机关系的未来,应是辅助而非依附,是启迪而非溺爱。

版权声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。