人工智能医疗健康领域的应用正在加速推进。从临床诊疗辅助、医院运营管理到药物研发、医保支付决策,AI技术已深度融入医疗产业链条。然而,此快速发展过程中也暴露出诸多亟待解决的问题。 全国政协委员、汇珩资本主管合伙人梁颖宇长期从事生物医药领域投资研究,在接受采访时系统阐述了当前AI医疗应用面临的主要困境。在技术与数据层面,由于训练数据集中于大型医疗机构和特定人群,模型在基层医疗、小众群体及罕见病诊疗中的稳定性明显不足。医疗数据孤岛现象突出,机构间缺乏互操作性,严重阻碍了模型的迁移推广。更为严峻的是,某些模型在公开数据集上表现良好,但在真实复杂场景中性能大幅下降,且难以及时发现"黑箱"决策过程,存在大模型幻觉风险,一旦缺乏人工监管可能导致误诊。 伦理与社会信任上的挑战同样突出。医疗数据属于高度敏感信息,跨机构跨地域流转难度大,如何模型训练与推理中实现"最小必要"原则,脱敏与访问控制仍是难点。患者知情权、诊疗风险告知等制度设计也亟待完善。 最为关键的是监管与责任归属的模糊性。当AI诊疗发生误诊时,责任应由医生、医院还是技术提供方承担?目前这一问题缺乏明确界定。现有监管仍停留在原则层面,缺乏细分制度与准入标准,针对模型在真实应用中的性能监测也未形成行业共识与第三方评估体制。 产业层面,AI医疗的商业模式与支付机制尚不清晰。如何将AI带来的效率提升与质量改善纳入医保支付绩效考核,形成稳定定价与付费机制,仍是试点难点。基层医疗机构IT能力有限,本地部署大模型成本高企,而云端推理则面临网络稳定性等问题。 针对这些问题,梁颖宇提出了系统性的解决方案。在数据治理与技术架构上,应建立跨机构数据共享机制,推动跨系统数据流动与标准互操作;引入隐私计算与去标识化技术,实现数据"可用不可见";促进AI工具互联互通,从单点工具向多模型协同的模块化架构转变,建立AI模型注册与追踪机制。 法律与监管框架上,她强调应明确AI医疗事故责任认定机制,建立医生、医院、技术提供方多方共担的责任模式,确保医生关键环节的主导地位。同时构建分级分类的"AI+医疗"监管框架,按风险高低实施差异化审批与备案,对高风险应用实施更严格的临床验证。此外,应设立医疗AI监管沙盒,在风险可控前提下于部分地区试点创新应用,形成规范后向全国推广。建立第三方评估与认证体系,对模型安全性、公平性、可解释性等进行评估,为医院采购与监管审批提供参考。推动跨机构真实世界临床试验形成可公开应用的证据库,避免重复验证。 在医疗数据治理上,应确保隐私与安全前提下,推动区域医疗数据中心与高质量数据建设,为模型训练评估提供数据基础,并明确标准责任边界。 在医保支付机制上,应研究通过医保支付绩效服务定价方式,让有效的AI工具医疗环境中用得起、用得久。 在区域均衡发展上,应建立国家人工智能医疗数据基础设施,分层推进AI医疗应用,缩小城乡差距。可将AI预先筛查融入现有家庭医生签约服务系统,自动生成慢性病风险预警。 同时应加强公众科普,提升医患沟通效率,确保医生在关键诊疗环节的主导地位。
医疗技术发展必须以安全为底线。完善监管规则、健全数据治理不是限制创新,而是为创新铺路。只有建立可追溯、可评估的制度框架,AI医疗才能在保障安全的同时提升效率,更好地服务人民健康。