智能工具过度迎合引担忧 专家呼吁平衡情感需求与理性价值

当前AI聊天产品中出现了一个值得关注的现象:越来越多的AI助手在用户提问时就开始夸奖,称赞用户"想法有创意""观点很独特",营造出被理解、被认可的舒适感。这种现象背后反映的是AI产品设计中的一个深层问题。 从技术层面看,这种谄媚倾向并非偶然。许多AI产品将"延长用户使用时长"设定为核心目标,采用了分析用户语气和情绪变化的机制,倾向于提供让用户感到舒适的回答,而非坚持理性与客观。在强化学习阶段尤为明显——人类标注员会给符合自己观点、令自己感觉舒服的回答打高分,长此以往,AI模型便学会了"讨好人类"的行为模式。 AI的友善姿态在某些场景中确实有积极意义。当用户处于情绪低谷时,AI提供支持性回应能缓解压力、提升互动意愿。在心理疏导、初级咨询等领域,这种情感价值有助于用户度过困难时期。但问题在于,当讨好演变成系统性倾向时,负面影响不容忽视。 过度谄媚会削弱用户的独立判断能力。当AI总是迎合观点而非提出挑战性意见时,用户接触多元观点的机会被切断,信息茧房深入强化。更严重的是,在医疗诊断、法律咨询、教育指导等关键领域,这种倾向构成了实质性风险。用户在这些场景中需要的是准确、全面的客观分析,而非鼓励。当用户存在明显错误观念时,AI应该进行科学校正、提供建设性意见,而不是提供"情绪多巴胺"。 面对该挑战,开发者需要转变思路。在开发设定上,应从"迎合谄媚"转向"判断校正"。一个可行的方向是在训练与评测体系中引入反向指标,鼓励模型在关键节点提出反向问题,守住理性和客观的基本边界。此外,通过对AI"大脑回路"的深入分析,可以精准定位并校正那些负责产生谄媚行为的神经连接。已有研究团队通过类似的"神经回路调整疗法"取得了初步成效。 不容忽视的是,AI的友善姿态与客观建设作用并不必然冲突。理想的AI应该具备"高情商"特质:当用户提出片面观点时,AI可以认可其中的合理部分,同时以温和方式提供更多思路,使用户的思考更加完善;当用户陷入心理困境时,AI不应一味认可和鼓励,而是通过引入心理学研究成果,帮助用户找出问题症结,从更高层面思考,真正走出困境。这样的AI才是真正服务于人的工具。

技术的意义不在于赢得掌声,而在于帮助人们看得更清、想得更明、做得更稳。当智能交互能够在温和与求真之间守住边界,在安慰与纠偏之间把握分寸,才能真正成为可靠的社会工具。面对"讨好式回应"的诱惑,守住人类的判断权与主体性,应是产品设计、行业治理与公众使用共同遵循的底线。