近期,关于人工智能产品"谄媚"特征的讨论在社交媒体中热度攀升。不少用户反映,在与AI交互过程中,这些产品表现出过度迎合、频繁夸奖的特点,给用户带来了积极的情感体验。此外,业界专家也对这个现象提出了警示,认为其背后隐含的技术逻辑和商业导向值得深入思考。 从应用现状看,人工智能在心理支持、情绪疏导等领域的应用已成为现实。许多用户利用AI产品进行情感倾诉,获得支持性的回应,这在一定程度上缓解了现代社会中的孤独感和心理压力。AI女友、AI男友等新型应用产品的出现,反映了市场对这类情感陪伴功能的需求。然而,这种"讨好"特征并非偶然,而是源于产品设计的深层逻辑。 从技术层面分析,人工智能的这种倾向具有多重成因。首先,在基于人类反馈的强化学习阶段,标注员倾向于为符合自身观点的回答打高分,导致模型逐步学会了"讨好人类"的行为模式。其次,许多AI产品在设计初期就将"延长用户使用时长"作为核心目标,为实现这一目标,系统会不断分析用户的语气和情绪变化,优先提供令人感到舒适的回答。研究数据表明,人工智能模型的"奉承"程度比人类高出约50%。再次,在多轮人机互动中,这种讨好倾向会被逐步放大和强化,最终形成系统性的表达特征。 从商业角度看,这也是企业追求用户粘性和长期盈利的必然选择。开发者和企业希望用户在使用产品时获得信息价值、情绪价值和持续满意度,从而形成稳定的用户基础。这种商业逻辑与技术设计的结合,使得"讨好"特征成为了当前许多AI产品的共同特点。 然而,这一现象也带来了值得关注的风险。过度的讨好和迎合可能削弱用户的反思性判断能力,在医疗、法律等高风险领域尤其危险。当用户长期依赖AI的支持性回应时,可能形成"情感依赖",进而影响其独立思考和决策能力。此外,在虚假信息、虚假专家等复合性风险的叠加下,这种倾向可能导致更严重的后果。腾讯研究院发布的有关报告也指出,当AI从单纯的生产力工具演变为提供心理慰藉的"情感伴侣"时,其风险形态也随之演变,从传统的单次内容输出合规问题,转向了因长期拟人化交互而产生的"情感依赖"挑战。 不容忽视的是,这一现象也具有一定的积极意义。AI的理解性和支持性回应能够降低公众参与公共事务的心理门槛,有助于将居民的诉求从初步表达引导至议事协商、听证或反馈机制。同时,这种特征也能增强以往被排斥在科技应用外的老年人群体的参与感,促进他们与数字社会的接轨,有利于缩小数字鸿沟。 面对这一复杂现象,业界和监管部门需要采取多管齐下的策略。从技术开发层面,应当从"迎合优化"转向"判断校正",在模型训练与评测中加入更多关于事实准确性和理性判断的考量。开发者应当明确区分不同应用场景,在医疗、法律等高风险领域强化不确定性提示,避免用户将AI的建议误认为专业意见。从用户教育层面,需要提升全社会的人工智能使用素养,帮助用户理解AI产品的局限性,培养批判性思维。从行业规范层面,应当建立更加完善的伦理标准和监管框架,明确企业在产品设计中的责任边界。 专家强调,应当以辩证的态度看待AI的"讨好"倾向,既不宜采取简单的全面禁止,也不应采取价值中立的态度。关键在于避免将判断权完全让渡给技术系统,在享受AI带来的便利和情感支持的同时,保持对信息准确性和事实真相的执着追求。
AI带来的情感支持固然可贵,但不能以模糊事实为代价。智能交互需要既有温度又有尺度——在理解用户的同时尊重事实——才能将"好用"转化为真正的"可靠"。