AI融入诊疗全链条,医院如何规避法律风险?
AI在医疗领域的应用伴随着一系列复杂的法律问题。医院如何规避AI诊断带来的法律风险?医院怎样确认医疗AI的辅助地位?当AI辅助诊断结果与医生临床经验出现分歧时,医生该如何权衡同时避免法律隐患……
4月15日,北京中医药大学卫生健康法治研究与创新转化中心主任、博导邓勇教授做客健康界直播节目「ALL in AI Health创新应用大讲堂」,与本场直播主持人健康界内容负责人郑宇钧对谈「医院如何提升应对AI医疗风险能力」等问题。邓勇教授扎实且富有实用性的直播内容,为众多在线的医健专业人士带来一场干货满满的知识盛宴。
本文精选部分直播内容,供广大同仁交流,欢迎在评论区留言。本期及过往授课回放,可点击下方图片跳转小程序,您加入医项目即可观看:
AI医疗应用
这几大风险一定要注意!
尽管AI技术为医疗行业带来诸多便利,但也存在不少法律风险。首当其冲的是医疗事故风险。邓勇指出,由于数据偏移、算法偏见、技术滥用以及医生接受度等因素,现阶段许多医疗AI产品存在安全隐患,可能导致潜在的医疗风险和医疗事故。
因为训练数据偏移、标注质量不一以及缺乏行业标准等因素,部分影像AI产品诊断效能参差不齐,容易出现误诊漏诊情况。例如,肺癌 AI 诊断产品的训练数据可能主要来自吸烟者和高风险人群的肺癌病例,导致其在低风险人群或非吸烟者中的诊断准确率较低。
临床决策支持系统若训练数据或技术算法出现偏移、缺陷,也可能给临床诊疗带来巨大风险,甚至造成重大医疗事故。以IBM Watson for Oncology 为例,据 IBM 内部公司文件,其应用程序经常产生「不安全和不正确」的诊疗建议。例如,Watson 曾向一名 65 岁伴有严重出血风险的肺癌患者开「贝伐珠单抗」,而该药的副作用之一就是出血。
此外,在一项针对「胸痛」的病因诊断试验中,Watson 仅提供了「某种极少见的传染病」的诊断建议,而漏诊了心绞痛、心肌梗塞及大动脉破裂等常见「胸痛」疾病。
已开始大量进入临床的医疗机器人,可能带来的风险也不容忽视。最典型的例子是英国首例「达·芬奇」机器人心脏手术致死案,据后期调查,手术失败的主要原因在于机器人缝合心脏的位置和方式不对,主刀医生必须拆线并重新缝合,该医生事后也承认并没有完全掌握机器的操作方法。
处方权合规风险同样不容忽视。邓勇指出,根据《互联网诊疗监管细则(试行)》及各地相关规定,严禁使用人工智能自动生成处方。然而,在实际的互联网诊疗中,存在诸多乱象,如平台医生信息错误、虚假资质难以认定,部分平台无处方、病历、检查报告就开具药品,网红医生带货保健品,以及医生误诊、过度依赖AI开出处方药、泄露患者个人信息等问题屡见不鲜。
数据隐私风险也是AI医疗面临的重要挑战。邓勇着重提到,医疗AI研发高度依赖海量医疗数据,在数据获取、保管、分析和输出的各个环节都存在隐私数据泄露的风险。使用者操作不当、利益相关者出卖信息、间谍和黑客恶意窃取、数据系统维护不当等,都可能导致数据泄露。
例如,中国信息通信研究院曾于2020年发布报告称,近三成接受调查的医疗单位存在数据资产泄露的风险,44.39%(7080家)的受调査单位使用了有漏洞风险的低版本组件。据统计,仅2020年,我国通过网络出境的医学影像数据就达到497万余次,涉及境内3347个地址,其中未脱敏数据达近40万次。
邓勇在直播中提到,医疗AI侵权责任主要分为手术机器人侵权责任和医疗诊断系统侵权责任。
手术机器人侵权责任又可细分为硬件缺陷侵权和软件缺陷侵权。对于硬件缺陷导致的患者损害,可适用《民法典》第1223条规定的缺陷医疗器械侵权责任,患者有权向生产者或医疗机构请求赔偿;对于软件缺陷造成的损害,由于软件不属于传统意义上的「产品」,不能直接适用上述条款,但可依据《民法典》一般过错侵权责任,要求生产商承担责任。
医疗诊断系统侵权责任的认定更为复杂,核心问题在于算法的不透明和不可预见性,使得传统过错责任理论难以直接适用。当医疗诊断系统出现预测错误,造成患者损害时,现行法律并未明确规定其责任归属,存在法律漏洞。
在邓勇看来,医疗 AI 诊断系统视在临床中的作用和地位更类似于会诊医师,其相似性主要体现在以下两方面:
第一,根据我国《医院工作制度与人员岗位职责》,「凡遇疑难病例,应及时申请会诊」。我国法律未对何为「疑难病」作出界定,但根据医学界通识,凡大多数医务人员对诊治都感到困难的疾病,均可称为「疑难病」。目前,医疗AI诊断系统主要提供肿瘤患者的治疗选择方案,其所涉病种符合「疑难病」的范围。
第二,从目前医疗AI诊断系统的功能来看,其是向主治提供疑难病症的咨询意见,不与患者直接交流,更不能独立采取治疗措施,与患者之间不产生直接的医患关系。会诊医师在对疑难病进行讨论时,也仅是根据主治医师所提供的病历资料、检查信息等从自己专业角度提出建议。医疗机构为了提高自身的诊疗水平和节约人力物力成本,在明知医疗诊断系统可能存在误诊的情形下,应通过实施会诊制度等措施来尽量避免其可能产生的不良后果。
虽然,医疗机构不可能评估黑箱医疗算法的实质性准确性,但却可以而且应该被要求采取适当的谨慎来评估程序质量。若未采取积极措施而导致误诊发生,就与「医疗机构自身有管理过错」并无二样,皆属于医疗机构由于疏忽或者懈怠而未能履行管理规范或者管理职责、造成患者人身损害之情形。
对此,可类推适用《民法典》第1218条规定,由医疗机构承担管理过错责任。
扫码▽即可获取完整回放和思维导图
报名成为AI讲师,加入AI主题社群
规避 AI 医疗应用法律风险
医院应该采取哪些关键举措
邓勇提到,医院在使用医疗AI时,明确其辅助性本质至关重要,应建立人机协同的诊疗新范式。在技术定位上,AI作为提升医疗效率的智能工具而非独立决策主体,不能取代医务人员的临床核心决策地位。具体实施路径包括:
一、建立分层应用体系:
基础层:在影像预判环节,明确AI仅执行初步筛选功能,要求系统对疑似异常结果标注置信度评级。病历结构化录入需设置人工复核节点,确保关键信息(如过敏史、手术史)100%人工确认。建立AI操作日志管理系统,完整记录系统介入时间、操作内容及输出结果。
决策层:由主治医师对AI建议进行二次验证与临床决策,包括:与患者临床表现的匹配度分析、循证医学证据支持度核查、治疗方案可行性评估。对于重大手术或复杂病例,建立多学科会诊制度,将AI建议纳入会诊讨论材料。
管理层:通过AI质控系统监测诊疗全流程规范性。有条件的可以每月生成《AI应用质量报告》,作为科室考核依据。
技术缺陷责任方面:
(1) 要求供应商提供《系统可靠性承诺书》
(2) 在采购合同中明确故障响应时间与赔偿标准
临床决策责任方面:
(1) 建立电子签名追溯系统,确保每项AI建议都有医师确认记录
(2) 对连续出现决策失误的医师启动能力复评程序
系统运维责任方面:
(1) 制定《AI系统日常维护规程》,明确备份频率与灾难恢复机制
(2) 建立运维事件登记制度,重大故障24小时内上报院领导
完善伦理审查机制:
成立跨学科AI伦理委员会,涵盖医学、法学、伦理学专家
定期评估AI系统对医患关系、诊疗公平性的影响
二、明确AI的辅助定位,建立「双重确认」机制是规避法律风险的核心防线:
1. 流程标准化:
制定《AI辅助诊疗操作规范》,明确AI建议必须经过「医师复核-临床验证-签字确认」三步骤;
对急诊等特殊场景设置复核时间阈值(如30分钟内完成二次确认)。
2. 责任界定规则:
医师未复核直接采用AI建议视为重大过失;
AI系统持续误判未被发现追究科室管理责任。
3. 风险预警系统:
部署决策偏离度监测模块,当AI建议与临床常规差异超过设定阈值时触发警示;
建立误判案例回溯机制,定期更新AI系统知识库。
三、完善知情同意制度,知情同意书革新需体现AI技术特征:
1. 内容要素:
明确告知AI参与的具体环节(如影像分析、用药建议等)
说明AI系统的局限性及可能存在的误判概率
列明数据使用范围及隐私保护措施
2. 签署形式:
开发电子知情同意系统,支持多媒体说明(动画演示、案例视频)
设置知识测试环节确保患者真正理解内容
3. 动态更新机制:
AI系统版本升级后需重新签署补充协议
对高风险诊疗项目设置二次确认流程
四、强化数据安全管理,构建分级防护体系:
1. 数据分类管理:
一级数据(生物特征、基因信息):采取「物理隔离」的方式为宜
二级数据(诊疗记录):采取「动态脱敏+区块链存证」 的方式为宜
三级数据(科研数据):需要遵守科研数据管理的相应规定
2. 技术防护措施:
部署医疗专用防火墙,建立AI操作「沙箱环境」
采用零信任架构,所有数据访问需多重身份验证
3. 协议管理机制:
与供应商签订《数据安全承诺书》,明确违约赔偿条款
要求第三方机构每年提供安全审计报告
五、优化责任保险方案:
医院可以采取多种措施。如果医院资金实力允许,可以按照AI诊疗收入的比例提取专项赔偿基金,建立先行赔付机制,保障患者权益,也可以与保险公司合作开发AI医疗责任险,设置浮动保费机制,与系统准确率挂钩,在现有的医疗责任险中增设AI诊疗附加条款,覆盖系统故障与算法误判风险。
六、组织人员培训:
医院可以采取「三维案例体系」建设:首先精选典型判例,选取AI误诊赔偿、数据泄露追责、知情同意瑕疵等具有代表性的司法案例,制作《AI医疗法律风险案例集》,每个案例包含案情概要、争议焦点、法院裁判要旨及改进建议四部分。其次创新教学形式,开发互动式案例研讨平台,设置虚拟法庭模块供医务人员角色扮演,在模拟诉讼中理解举证责任分配规则;建立「案例即时推送」机制,当医院引入新AI系统时,自动关联相似案例进行预警教学。
再者构建分析框架,采用「四步分析法」:
①识别案例中的法律事实;
②解构涉事主体的过错形态;
③分析责任承担的法律依据;
④提炼临床实践改进要点,通过结构化思维训练培养法律风险预判能力。
医务人员应对AI
也要有法律思维
针对网友感兴趣的话题,邓勇教授进行了线上作答。
健康界网友:当AI辅助诊断结果与医生临床经验出现分歧时,医生该如何权衡并决策,同时避免法律风险?
邓勇:医生要充分发挥主观能动性,严格依据《医师法》行使权利。
首先,谨慎评估AI结果,从数据质量、算法性能、系统局限性等方面判断其可信度。
其次,充分结合自身临床经验,回顾患者病史、进行体格检查并结合临床症状综合判断。
再者,安排补充检查,如基因检测、影像检测等,并动态观察患者病情变化。此外,还可借助多学科团队协作,组织会诊、病例讨论,咨询专家意见。
最重要的是加强与患者的沟通,坚守职业资质和处方权原则,向患者解释分歧原因,避免误解。同时,规范诊疗记录,详细注明决策理由,为医疗决策提供有力证据,降低法律风险。
健康界网友:对于培训医务人员识别和应对AI医疗应用法律风险的方式,除案例教学外,还有哪些途径?
邓勇:模拟演练是其中之一,设置模拟医疗场景,融入AI应用可能出现的法律风险,让医务人员分别扮演医生、患者、律师等角色,在模拟诊疗和纠纷处理过程中提升应对能力。专家讲座也必不可少,邀请人工智能医疗AI合规风控领域的法律专家、律师以及医疗纠纷处理专家举办讲座,从不同角度提供专业知识和实践指导。
医院也可以组织相关人员到优秀的医疗AI或医疗大模型企业实地考察调研,了解其工作原理、潜在问题及风控措施。此外,经典短剧表演也值得尝试,通过内部人员扮演不同角色进行情景演练,对诊疗过程提出质疑并改进,提升医务人员运用医疗AI的能力。
健康界网友:当AI的诊断结果被用作医疗纠纷案件中的证据时,其证明力和可信度应如何认定?
邓勇:这需综合多方面因素考量并满足一定条件。认定因素包括AI系统的可靠性,即技术原理科学合理、算法经过严格验证和同行评审;数据质量要有足够规模、多样性和准确性,并标注可靠度。同时,要实现AI系统及其结果的可解释性,保障透明度,医生需参与审查并做好人机协作记录。
满足的条件包括符合法定程序,数据获取合法合规,不侵犯患者隐私,证据收集和保存符合医疗规范与法律要求。还可借助专业鉴定机构对AI系统和诊断结果进行鉴定,与其他医疗记录、证人证言等证据相互验证,并通过法庭质证、辩论以及专家辅助人出席来查明事实,将传统证据规则与医疗AI技术相结合,进行全面看待和应对。
监制 | 郑宇钧
扫码加入「ALL in Al Health 创新应用大讲堂」医项目
讲案例讲解决方案讲AI办公技巧讲AI新工具!
更有主题社群畅聊AI医疗解决方案!
扫码报名AI讲师
医务人员和企业产研人员均可报名!
对于公立医院的讲师,有授课奖励!
不感兴趣
看过了
取消
不感兴趣
看过了
取消
精彩评论
相关阅读