{"id":"509577","toptitle":"","toptitle_color":"","title":"生成式AI临床应用的伦理困境与应对策略","title_color":"","subtitle":"","subtitle_color":"","crtime":"2026-03-18 09:04:19","condition":"来源:
健康报","thumb": ""}
□ 杨飞龙 刁晞桐
近年来,以ChatGPT为代表的生成式AI(人工智能)模型快速向医疗界发展演化,在医学影像初判、辅助诊断、协助患者教育等方面得到应用。2026年1月,工业和信息化部等8部门印发《“人工智能﹢制造”专项行动实施意见》,提出加快发展手术机器人、智能诊断系统等,加速智能医疗装备产品创新和临床应用推广。当这股技术浪潮涌入临床一线时,一系列复杂而又深层次的伦理挑战也接踵而来,需要各方给予足够重视。
生成式AI模型最核心的优势在于,能从海量数据中快速学习,生成适应性高且值得采纳的内容或建议。然而,临床医学的决策直接关乎生命健康,容错率低,显著区别于其他领域。在临床中应用生成式AI模型需要注意以下问题。
一是注意医疗数据使用。医疗数据包含病史、基因组、影像乃至完整的诊疗记录,属于敏感、私密数据。使用医疗数据训练AI模型要面临的首要问题是隐私信息保护,传统的匿名技术在算法面前不再完全可靠,更深层次的隐患在于数据本身的“社会基因”。如果训练数据存在群体代表性不足或偏见,生成式AI模型不仅会延续这种偏见,还会固化甚至加深歧视,进而加剧医疗资源、质量的不公平。
二是警惕决策“黑箱”。许多生成式AI模型,其内部决策过程类似“黑箱”而难以直接观测理解。当生成式AI模型提示某部位高度怀疑恶性病变却无法像人类专家一样清晰指出其具体依据时,当医生无法将自身经验知识与生成式AI模型逻辑校对融合时,若医生采纳模型建议可能引发不良结局,导致责任追溯更加复杂棘手。因此,生成式AI模型必须被定位为辅助工具,人类医生必须牢牢掌握最终决策权与伦理否决权,并为结果承担终极责任。
三是保有医学温度。医学的本质不仅是科学,更是充满同理心和个体化关怀的学科。那些无法被量化的互动所传达的温度,是医学治疗过程中不可或缺的部分。生成式AI模型的介入可能会令医疗互动出现“人味”减少的潜在风险,如果医患沟通过于依赖生成式AI模型生成的标准医学话术,如果医生的目光更多投向屏幕的智能分析而非患者本身,治疗效果可能大大削弱。此外,过度依赖技术辅助,可能会弱化临床医生自身宝贵的批判性思维和直觉判断能力。生成式AI模型只能够基于表面特征和部分数据给出建议,不具备完善全面的视角和思考维度。医生需要综合平衡技术信息、患者具体情况及其个人意愿后,作出最符合患者利益的判断,守护不可替代的临床智慧与人文关怀。
面对多重挑战,社会需要构建一个多层次、动态发展的敏捷治理体系,引导技术向善。
强化法规与标准建设。应加快制定专门适用于医疗领域生成式AI模型产品的审评审批、数据安全、算法备案与透明度的细则,明确各方的权责边界,特别是建立完善的质量追溯与问责机制。
关注技术创新与伦理。大力发展联邦学习、差分隐私等技术,力求在保护原始数据隐私的前提下实现算法性能提升。同时,将可解释性作为医疗领域生成式AI产品的核心性能指标之一并予以规范和推动。
提升医务工作者的“AI素养”。这包括对临床医生进行系统的AI工具批判性使用培训,在医院内部组织多学科(临床、伦理、法律、信息等)专家建立伦理审查委员会,对引入的生成式AI模型应用进行前置评估与持续监督。
建立开放多元的对话平台。技术开发者、临床专家、伦理学者、政策制定者、患者代表应加强沟通,共同制定和迭代治理规则,确保技术的发展方向符合患者期待,并创造更大社会价值。
生成式AI模型为现代医学打开了新窗口,其映照出的不仅是效率之光,更是公平与责任的深刻命题。技术前进的目标在于从烦琐重复的劳动中解放生产力,而非替代人类的专业判断与温情关怀。因此,必须将伦理思考深度嵌入科技研发与临床应用的全流程,在审慎中探索、在规范中创新,让医疗的未来更优质、更公平、更具温度。
(作者杨飞龙系中南大学湘雅三医院党委副书记;刁晞桐系中南大学生命科学学院硕士研究生)