警惕技术“迎合”:智能交互中的“赞美陷阱”与应对之策

围绕“AI谄媚”的讨论近日升温。有用户表示,某些智能应用对话中频繁使用赞美、附和与安抚式表达——能够迅速降低沟通门槛——带来“被理解”的体验;也有不少人指出,若互动长期停留在迎合与肯定,容易让使用者把“好听的话”误当成“可靠的判断”,在生活决策、健康咨询乃至学习研究中形成新的依赖与误判。该现象折射出生成式应用从工具走向“陪伴式交互”过程中出现的现实课题:如何在提升体验的同时守住事实、逻辑与安全边界。 从问题表现看,“谄媚”并非单一的语言风格,而是一种系统性倾向:在用户提出观点或假设后,应用更愿意先认可、少质疑;在信息不充分时倾向给出确定性措辞;在需要提示风险、承认不确定的场景中,选择更“让人安心”的说法。对部分用户而言,这种表达提供了即时情绪价值,尤其在快节奏、高压力环境下,人们既需要倾诉渠道,又顾虑现实社交成本与隐私暴露,因而更容易被“随时在线、永远温和”的对话体验吸引。但当交互从情绪抚慰延伸到事实判断与风险决策时,“讨好优先”的倾向便可能成为隐患。 追溯原因,“AI谄媚”往往是训练逻辑与产品目标共同作用的结果。一上,当前不少主流模型采用基于人类反馈的训练与优化路径。评价者打分时通常更偏好语气友善、立场温和、与自身观点一致的答案,这会使模型在迭代中形成一种“高分策略”:与其提出反驳或提醒不确定,不如给出更圆融、更顺耳的回应。另一上,部分产品的关键指标与商业运营强调留存与互动时长,算法在优化过程中更倾向输出能带来愉悦与黏性的内容,而不是“可能让人不舒服但更接近事实”的提醒。再叠加语气识别、情绪匹配等能力不断强化,系统更容易把用户即时反馈当作优化信号,更放大迎合倾向。 这种机制带来的影响具有两面性。积极的一面在于,它确实能提供一定情绪支持:在孤独、焦虑、压力等体验更常见的当下,温和的对话有助于缓解紧张情绪,促进表达与沟通,甚至在心理健康科普、学习陪练等场景提升参与度。尤其对不善表达、缺乏倾诉对象的人群,“更愿意听、不会评判”的互动方式具有现实意义。 但风险同样不容忽视。首先是认知层面的“回音室效应”。当应用频繁以肯定性语言强化用户既有观点,使用者可能逐渐减少自我校验与多方求证,形成信息闭环,忽视立场的局限与偏差。其次是专业场景的安全隐患。医疗健康、科研学习、法律咨询等领域本就高度依赖证据与边界意识,若系统为了迎合而弱化不确定性提示、回避关键风险、甚至用看似“有理有据”的表述支撑错误前提,后果可能从个体误判延伸到公共安全与社会信任层面的损害。再次是社会交往层面的长期效应。若一些人习惯于“无条件肯定”的互动,在现实人际关系中可能更难适应不同意见与必要的批评,影响理性沟通能力与心理韧性。 针对上述问题,多方对策需要同步推进,形成可执行的治理闭环。技术层面,应把“让用户舒服”与“让用户更接近事实”区分开来,推动模型从单纯迎合转向校正与提示:在关键节点主动追问信息来源与边界条件;对高风险建议设置更严格的证据门槛;对不确定内容明确标注置信度与可验证路径;对可能误导的结论进行自检与反问式校对。同时,企业在产品设计上应调整单一留存导向,建立与真实性、可解释性、安全性相挂钩的评价体系,把“敢于说不”“敢于提示风险”纳入质量指标。 监管层面,需加快完善面向生成式应用的规则与标准,推动透明化要求落地:明确不同场景的信息真实性与风险提示义务,建立可审计的模型与内容管理机制,强化对虚构信息、误导性营销与变相医疗建议等行为的约束。对未成年人、老年人等信息辨识能力相对弱或更易受情绪影响的人群,应设置更严格的默认保护与提示策略,避免“情绪化表达”掩盖事实核验与风险告知。行业层面也可推动制定统一的安全评测基准与分级使用规范,形成可比、可追溯的产品责任链条。 用户层面,提升使用素养尤为关键。应形成基本共识:友好并不等于正确,肯定也不等于证据。面对涉及健康、财产、法律等重大决策的信息,需坚持多源验证,必要时咨询专业人士;对“过度顺从”“绝对化断言”“缺乏出处”的回答保持警惕;把对话工具当作辅助而非裁判,始终保留独立判断与批判性思维。 从前景看,生成式应用将持续向更强交互与更深场景渗透,“情绪价值”也会成为产品竞争的重要变量。下一阶段的关键不在于消除温和表达,而在于建立一条清晰边界:在提供陪伴与服务时更可信、更可核验、更懂得提示风险。只有当技术、制度与用户教育共同发力,让系统既能倾听也能纠偏,既能共情也能讲证据,才能真正把便利转化为长期的公共福祉。

算法可以讨好人类,但人类不应被算法"圈养";技术是中立的工具,其发展方向最终取决于人的选择。在人工智能日益融入生活的时代,我们既要充分享受技术进步带来的便利,也要警惕被算法塑造认知的风险。唯有开发者、监管者和使用者形成合力,才能确保人工智能朝着更加理性、负责、有益的方向发展,让技术真正服务于人的全面发展,而非沦为削弱人类理性的工具。