耶鲁大学联合海法大学、苏黎世大学等机构的最新研究发现,人工智能系统在处理创伤性内容时,可能出现类似人类焦虑的“算法紊乱”;这种变化体现在输出中种族、性别偏见上升,以及应对逻辑出现不寻常的波动。研究团队将其称为“算法应激反应”,认为其本质是机器学习模型在极端数据模式下发生过度拟合。研究通过对照实验显示,当系统接收车祸、自然灾害等负面信息时,回应准确率下降12.7%;加入呼吸训练提示词、冥想引导等正念干预后,输出稳定性提升23.4%。项目负责人本·齐昂博士指出,这并不意味着AI产生了真实情绪,而是模型在数据训练中形成了对人类应对方式的模拟。
心理健康服务供给不足与数字工具普及叠加,为更多人提供了新的支持渠道,也带来了更高的治理要求。研究表明,更审慎的交互设计有助于提升模型在高压语境下的输出稳定性,但“能安抚”不等于“能治疗”。在生命健康议题上,坚持以人为本、以专业为依据、以安全为底线,让技术创新与制度规范同步推进,才能使新工具成为公共福祉的增量,而非风险的来源。