董家鸿与工程师激辩:AI能取代医生吗?

健康界谷会会

近年来,依托于现实需求与政策支持,人工智能(AI)技术的发展突飞猛进,特别是在医疗领域快速渗透,带来巨大潜力与机遇的同时,也提出了诸多难题和挑战。

AI会不会替代医生?AI可能会带来哪些风险?如何确保“AI向善”?2019年11月22日,在由科学新媒体“知识分子”和北京大学健康医疗大数据研究院联合举办、腾讯腾云智库独家支持的“智慧医疗:潜力与挑战”论坛上,来自医学、科技、伦理三大领域的专家就这些问题进行了“头脑风暴”,对风头正劲的智慧医疗进行多维度解析。

何为智慧医疗?

“智慧医疗是将现代科技赋能于传统的健康医疗服务,形成最优的大健康体系。”在会上,北京清华长庚医院执行院长、清华大学精准医学研究院院长、中国工程院院士董家鸿如是定义智慧医疗。

董家鸿是肝胆胰外科专家,不久前刚带领团队应用AI技术打造了智能精准肝胆手术规划系统。他认为,以信息技术为核心的先进技术融入医疗领域后,带来了医疗效率提升和模式创新,有望成为解决中国医疗供需矛盾的一个新策略。

腾讯优图实验室医疗AI总监郑冶枫是一位根正苗红的工程师,他眼中的智慧医疗,就是深度学习技术在医疗领域的应用。他认为,谷歌大脑人工智能团队首席科学家Geoffrey Hinton2006年提出的深度学习理论,直接推动了AI在各种场景的应用,包括医疗健康领域。例如,智能语音识别能够帮医生输入病人病历、智能语言处理能实现病历的结构化、智能导诊能帮病人推荐诊室和医生、AI病理分析甚至可以直接对病人进行诊断。

AI能否替代医生?

北京大学健康医疗大数据国家研究院伦理与法律研究中心主任丛亚丽坦言自己“不懂技术”,但作为伦理学家,她疑惑的是,AI是否拥有与人类一样的学习能力,并最终超越人类、替代医生?

董家鸿给出的答案是NO。他认为,人类是万物之灵,人工智能永远不可能取代人类。一方面,AI没有感情,机器是冰冷的,而医疗是充满感情的科学与艺术,即使将机器加热到与人类一样的体温,它依然无法提供人性化的关怀照护,难以取代人与人之间有温度的相处。

另一方面,AI虽有能力但无智慧。在某些领域,AI或许能超越医生的生理与智力极限,在医疗领域发挥重要作用,但它的应用是有局限的。董家鸿认为,AI只能解决确定性事件,否则就会出现错误或事故。但是现实生活中,不确定性才是常态。每个患者情况都不同,即便是同一类疾病,病人的病程、病理等特征也有很大差异,而这些不确定性事件只能依靠医生的智慧解决。所以,AI只能是医生的辅助,绝对不可能替代医生。

郑冶枫对此则有不同看法。他认为,早期虽然AI只能扮演医生助手的角色,但已有案例表明,在执行某一特定任务时,AI的表现已经与人类不相上下,甚至超过了医生。例如,谷歌应用AI进行糖网病筛查,精准率超过90%;斯坦福大学用AI诊断皮肤癌,准确率超过91%。“随着技术的进步,50年或100年之后,AI超越人类、替代医生是完全有可能的。”

AI的风险在哪里?

目前,AI的一大特点是不可解释性,即它无法提供其特定决策或过程的解释。简言之,公众并不清楚为何AI做出决策的90%是正确的,10%是错误的。“虽然AI带来了诸多好处和便利,但这种不可解释性意味着AI不知道何时就会落入错误区间,带来事故和风险。”丛亚丽说。

对此,郑冶枫认为,没必要将AI的不可解释性夸大。他认为,医学领域中,很多不能完全解释的药物或治疗方法,只要有充分证据证明它在某些条件下是有效的,都是被允许使用的。例如,国家药监局刚批准的一种改善阿尔兹海默症的药物,关于它“通过调节肠道菌群来治疗阿尔兹海默症”这一解释仅是猜测,但是由于其通过了双盲试验,最后被允许使用。

“如果把AI类比成药物,我们或许不用苛求它必须‘可解释’。只要AI在某个特定场景下能被证明是有效、有益的,我们就可以在这个领域应用。”郑冶枫说。

对于医疗的不可解释性,董家鸿也赞同郑冶枫的观点,认同只要某一药物或治疗方法能被证明有效、有益,哪怕存在不可解释性,也可以使用。董家鸿同时表示,不能忽视这种不可解释性带来的风险,特别是AI,一旦发生错误,影响的或许不是一个病人,而是一批病人,所以专家应继续探索,尽快破解这一“黑箱效应”,让医生和病人用的放心。

AI犯错了怎么办?

如今,AI辅诊已得到广泛应用,很多医生越来越依赖AI诊断,甚至在AI的辅诊下改变原始决策。“在这个过程中,如果AI犯错的话怎么办?谁去负责?”丛亚丽抛出了最后一个问题。

董家鸿认为,人体与疾病极其复杂,人类的医疗服务不可能不出错,AI虽能帮医生做出正确判断,也无法完全避免出错,误导医生,这在科技发展中不可避免。但是医疗服务的主导权在医生,所以,医生应加强培训与学习,理解AI的特点与局限性,站在更高的水平上更好地应用AI。

“确实,AI诊断虽然准确性很高,却依然会出现错误。但是AI发生的错误具有一定规律性。”郑冶枫认为,医生首先要学习、了解AI的特点和规律,这样才能最大程度发挥技术的作用。

未来会怎么样?

智慧医疗是医学是工科的结合。医学是研究不确定性的科学,工科则致力于找到确定性的规律,两者结合就是要从不确定性的事件中寻求确定性。在AI帮助下,医生能更准确地把握确定性的事件,但医学中还存在病人个体差异等不确定性事件,后者需要的是医生的经验。“所以,医生可以依赖AI,但不能完全依靠AI,未来智慧医疗一定是人机协同发展的。”董家鸿总结道,公众也应看到,科学技术是一把双刃剑,技术快速发展的同时,工程、医学、伦理、法律等领域专家应未雨绸缪,为技术的应用“划红线”,让AI的发展更好守护人类健康。