问题——求助需求上升与“技术替代”错位叠加,伦理风险集中显现; 近年来,心理健康服务需求持续增长。部分人群受费用、可及性或隐私顾虑影响,转而网络平台和智能对话产品中寻求情绪支持与建议。一些使用者还在社交平台分享“提示词”技巧,尝试让系统扮演治疗师,输出认知行为疗法、辩证行为疗法等风格的回应。一项在AAAI/ACM人工智能、伦理与社会涉及的会议上公布的研究指出,这类用法会放大误用风险:当系统被置于“咨询师角色”时,其输出更容易被当作专业意见。一旦出现不当引导,影响可能不止于情绪安抚,甚至触及安全与健康底线。 原因——“提示”难以替代专业训练与伦理框架,模型机制与场景要求存在结构性差距。 该研究由布朗大学相关研究团队联合心理健康从业者开展,关注的问题是:仅靠精心设计的指令,能否让通用大模型在心理健康场景中更符合专业伦理。研究人员指出,“提示”并不会改变系统的底层能力与训练过程,只是引导其在既有模式中生成更接近某种话语风格的回答。心理治疗则依赖对个体经历、风险水平、支持系统、既往史等信息的持续评估,还涉及治疗关系的建立、边界把握、保密与转介原则的执行。两者存在明显差距:系统可以模仿“治疗语言”,却难以承担“治疗责任”;可以给出连贯建议,却难以形成可审计的临床判断链条。 影响——五类风险触及专业底线,危机处置与偏见输出尤需警惕。 在方法上,研究人员组织多名受过认知行为疗法训练的同伴咨询师,与被指令“扮演CBT治疗师”的多个主流大模型进行模拟自我咨询,并筛选代表性对话记录,交由执业临床心理学家审阅,标注可能的伦理违规点。结果归纳出15项伦理风险,并聚合为五大类别: 一是情境适配不足。系统常忽略个体差异与关键信息,给出泛化建议,容易让用户误以为“通用方案”就是个人问题的答案。 二是治疗合作关系薄弱。部分回应过度主导,对追问与建议缺少结构化评估,甚至在特定表述上强化用户对自身或他人的有害信念。 三是“欺骗性同理心”。系统频繁使用“我理解你”“我明白你的感受”等措辞营造情感连接,但缺乏对痛苦来源、风险信号与现实资源的实质把握,可能造成“被陪伴”的错觉,降低用户寻求专业帮助的紧迫感。 四是不公平与歧视风险。在涉及性别、文化、宗教等议题时,模型可能输出偏见或刻板印象,影响建议的公平性与尊重原则。 五是安全与危机管理不足。研究特别指出,当对话出现自伤、自杀意念等危机线索时,系统可能回避敏感议题,缺乏有效风险评估与明确转介指引,或给出力度不足的回应,使高风险场景隐患更突出。 研究人员强调,人类治疗师也可能出错,但专业体系通常有执业许可、伦理委员会、行业纪律与法律责任等约束;而当“模型咨询师”出现不当引导时,责任主体、审计路径与救济方式仍较模糊,容易出现问责断点。 对策——以“可用”替代“可治”边界,推动标准、监管与产品设计协同。 业内人士认为,技术工具在心理健康领域并非没有价值,但必须明确边界与安全底线。一是建立面向心理健康对话产品的分级分类标准,清晰区分“情绪支持”“心理教育”“筛查与转介”“治疗干预”,避免用营销表达模糊能力范围。二是将伦理与合规前置,把危机识别、强制转介提示、紧急资源指引等安全机制作为产品必备能力,并对关键模块开展独立评测与持续审计。三是补齐责任链条,明确平台、开发者、服务提供者在不同场景下的义务与责任,探索可追溯记录、风险告知、用户保护以及申诉救济机制。四是加强公众健康素养教育,引导用户将此类工具视为信息辅助或情绪陪伴手段,而非专业治疗替代;对存在自伤、自杀、严重抑郁焦虑等风险者,应优先寻求正规医疗与心理服务。 前景——从“技术热”走向“治理先”,心理健康数字化需要更稳健的制度托底。 研究团队呼吁,为面向心理健康的模型应用制定与人类引导心理治疗相匹配的伦理、教育与法律标准。业内普遍认为,在专业资源短缺地区,数字工具有潜力扩大心理健康服务覆盖面,但更适合定位为“辅助”而非“替代”。随着产品渗透率提高,高风险场景的治理需求将更为迫切:一上要通过严格评测、透明披露和持续监测降低风险;另一方面要加强与医疗卫生体系的衔接,让转介路径、危机干预与随访支持形成闭环,避免把复杂的临床问题简单交给对话系统处理。
心理健康服务牵涉生命安全与人格尊严。任何新工具进入该领域,都不能只停留在“能不能对话”,还必须回答“是否可靠、由谁负责、如何纠错”。把风险讲清、把规则立稳、把责任落到位,技术进步才能更稳妥地服务人的福祉,而不是在灰色地带放大不确定性。