医疗人工智能产业正处于快速扩张阶段。国际市场上,被誉为"医生版ChatGPT"的医疗AI企业估值已超百亿美元,成为全球标杆。国内外跨国科技巨头、制药企业和创新公司纷纷布局该赛道,各类医疗AI产品层出不穷。然而——在看似便利就医的表象背后——若干深层问题正在浮现。 患者对AI医疗建议的过度信任已造成实际伤害。上海爱尔眼科医院副院长李勇近日分享了一个典型案例:一位白内障术后患者因听信AI关于"眼药水有副作用"的说法,擅自停用医生处方的抗炎眼药水,最终导致视力下降和角膜轻微褶皱。患者坦言相信AI是因为"它综合了很多专家意见,更权威"。类似情况并非孤例。复旦大学附属口腔医院院长蒋欣泉委员介绍,有患者因AI提示"口腔黏膜包块可能为恶性肿瘤"而陷入焦虑,就诊后才发现仅为良性黏液囊肿。这些案例反映出当前通用型AI在医疗应用中存在的根本缺陷。 通用型AI生成的医疗建议与临床诊断存在本质区别,但公众认知不足。目前向社会开放的通用型AI工具主要基于概率和文本匹配生成内容,通过全网爬取和组合信息。这类AI缺乏医学的严谨性和个体化考量,无法识别患者问题的真实意图和个人具体情况。同时,其知识库往往滞后于最新医疗进展,容易生成看似合理但实际不符合临床指南的建议。蒋欣泉指出,患者常将AI生成的健康建议误作诊断意见,这是一个严重的认知误区。医学诊断需要依赖视诊、触诊、叩诊等多种临床检查方法,而非文本信息的简单组合。 医疗AI的伦理和安全问题亟待制度规范。业内专家认为,医疗AI必须设置明确的安全底线。首先,患者信息需要规范脱敏处理,确保隐私保护。其次,医疗AI的训练数据应来自循证医学证据,保证其建议的科学性。再次,在医疗体系内必须明确AI的辅助工具定位,医生才是诊疗的主体责任人。这些原则需要通过行业标准和监管制度予以确立。 此外,专科医学AI的发展展现了不同的前景。上海多家三甲医院正在探索专科化医学AI的研发。复旦大学附属中山医院葛均波院士参与研发的"观心大模型"深耕心血管领域,仁济医院推出了泌尿专科AI助手,上海人工智能实验室开发的"胃肠多模态医学AI"在去年与三甲医院专家团队的复杂病例分析中表现相当。这类经过专门训练的AI已达到副主任医师级别的诊断水平。目前这些产品仍在持续测试和优化中,医学数据团队通过规整化和质检质控,使病例数据更加符合临床诊疗规范。 专科医学AI的临床转化需要完善的制度支撑。要使这些有潜力的医疗AI产品真正服务于临床,需要建立清晰的审批路径、应用规范和效果评估体系。同时应加强对医疗机构和患者的培训,明确AI在诊疗中的具体应用场景和局限性,防止过度依赖或误用。
技术进步为医疗带来新工具,但安全与责任始终是底线。只有在"适用、可靠、可控"的场景中使用AI,确保数据合规、风险明确、责任清晰,才能将技术优势转化为健康效益。面对医疗智能化趋势,需要以标准立规矩、以证据保质量、以制度护安全,推动创新稳妥落地。