当下,人工智能技术正加速融入医疗领域,但其应用边界究竟在哪里,成为医学界必须认真思考的问题。
日前,在相关学术论坛上,资深医学专家明确表态:医生个人可以使用人工智能作为辅助工具进行预审,但坚决不允许将人工智能直接接入病历系统。
这一立场引发业界深思,其背后反映的是对医疗安全、医学教育和行业治理的系统性思考。
专家的核心担忧在于,人工智能对医学人才培养路径的潜在改写。
资深医生具备深厚的专业积累,能够快速识别人工智能的错误与盲点,因此可以有效利用这一工具进行决策辅助。
然而,对于正在成长阶段的医学新人而言,情况则截然不同。
如果在基本功尚未完成时,就将人工智能作为默认的答案生成器,短期内虽然能提升工作效率,但长期而言可能导致一种隐蔽的能力退化:医生能够得出正确答案,却说不清原因;能够对上数据,却不理解诊疗边界;一旦遇到"看似正确"的错误判断,就缺乏独立识别能力。
这种现象反映了技术工具的一个普遍规律:工具越强大,人越容易绕过艰难但必要的知识内化过程。
从医疗系统的角度看,将人工智能接入病历系统涉及三个相互关联的核心问题。
其一是责任边界的划分。
病历系统不仅是医疗信息的记录工具,更是责任链条的重要组成部分。
一旦人工智能被写入"系统默认流程",它就不再仅是辅助工具,而开始参与责任分配。
此时必须明确:谁做出最终诊断、谁签字确认、谁承担医疗责任,这些问题都必须可追溯、可问责。
其二是纠错机制的完善。
高风险行业最危险的往往不是明显的错误,而是"看起来合理"的错误:逻辑结构完整、表述笃定有力、诊疗路径似乎合理,但实际上存在隐患。
如果缺少有效的复核、抽检、回放和反例库建设,错误会以看似正当的姿态潜入医疗流程,最终演变成组织层面的系统性盲区。
真正的医疗安全不能依靠资深个人的经验兜底,而应通过建立持续发现错误、定位错误、复盘错误的系统性机制来实现。
其三是人工智能应用的分层管理。
国际医疗卫生组织在相关治理文件中反复强调,高风险场景必须将安全与治理前置,而非先接入再补规则。
这意味着医疗领域的人工智能应用需要进行风险等级评估,确定哪些环节必须由医生最终拍板,哪些环节人工智能只能提供候选方案、提示信息或预审功能。
从行业发展的更大图景看,人工智能的真正风险并不在于是否能提高效率,而在于它是否会改变一代医学人才的能力形成方式。
医学专业性的形成需要长期的知识积累、临床实践、反思总结和错误纠正。
如果这一过程被人工智能的便利性所替代,医疗行业将面临长期的人才质量隐患。
当前,医疗AI治理需要在三个层面取得共识。
第一,风险防控层面,必须在高风险应用入口处建立严格的评估和审查机制。
第二,流程管理层面,需要将人工智能的风险转化为具体的工作流程规范和可量化的监测指标。
第三,人才培养层面,医学教育机构需要明确界定在培训过程中人工智能的使用范围,确保医学新人在掌握基本技能后再考虑引入辅助工具。
张文宏医生的警示犹如一面棱镜,折射出技术革命中的永恒命题:任何工具的终极价值不在于替代人类,而在于拓展人类能力的边界。
在医疗这个关乎生命的特殊领域,或许我们更需要铭记希波克拉底誓言的精神内核——技术可以延伸医生的手,但永远不该取代医者的心。
这场关于AI应用的讨论,终将推动医疗行业在技术创新与职业坚守之间,找到更坚实的平衡支点。