从医疗过程看AI+医疗的发展
以下文章来源于Doctor馨 ,作者Dr.馨
[
Doctor馨 .作为医生、脑科学研究者和心理咨询师的个人成长记录与分享。
](#)
**医疗和金融一直是AI领域应用的最热门领域。 然而时至今日, AI在医疗的应用更多局限于医疗影像, 而waston这样的巨头则生存困难重重, 其中奥妙又在何处? Dr.馨的文章将带领大家略窥一二。
话说这几年人工智能(artificial intelligence, AI)技术和产业爆发性的增长,不少医疗AI相关的项目层出不穷。
面对这样的社会发展趋势,作为医学狗的我,自然而然会想“医生的工作会被AI全面替代吗?(我会下岗吗)”
而另一边,手握AI技术的程序猿们,也会想“AI+医疗有哪些结合点(发财处)?”
于是,问题来了——
医疗活动的哪些部分是AI可以替代医生的?
哪些部分是AI不能替代医生的?
要弄清这个问题,我们得先了解医疗的内容。广义的医疗包含了健康管理、疾病防控、病因研究、康复疗养、临终关怀等多个方面;狭义的医疗主要关注临床医疗活动,其核心是疾病的诊断和治疗。
嗯我举个简化版的栗子,我们先来看下疾病诊断的流程。
患者A觉得不舒服于是到医院看门诊,门诊医生Z接诊了患者A。
“你哪里不舒服啊”
“我昨天晚上啊吃火锅儿,那个黄喉和鸭肠好好吃哦,吃了嘿多嘿多,结果今天起来拉稀摆带跑鸟五趟厕所,都拉空奥,肚子哈是一直痛哦痛哦,到现在都不得好,就来了”
“还有哪点不舒服嘛?吐没得嘛?”
(此处省略问诊对话内容n字,n>300)
“躺床上,衣服掀起来”
于是医生给患者摸了哈肚子进行了体格检查,(医学狗们来复习下腹部查体内容外形包块压痛反跳痛肌紧张…),然后开了个检查单“吃早餐了没?没吃的话去打个腹部B超”
后面辅助检查结果回来后,排除阑尾炎等疾病,医生下了诊断“急性肠炎”,然后下医嘱,进行治疗。
也就是说,对于初诊的疾病,临床诊疗主要过程为:
问诊-体格检查-辅助检查-诊断-治疗。
那么在这里面,相对容易应用AI的是哪个部分?
——辅助检查
为什么?
因为其数据更容易标准化。
其中,超声图像、X光照片、CT断层图像、核磁共振成像以及活体检查病理图这些图像数据,都是可以进行标准化对应的。基于各种机器学习算法,针对某一类疾病或临床诊断,对这些图像中的信号进行识别,并给出相应的判断,也是目前各种遍地开花的医疗影像AI项目在做的事。
比起辅助检查,问诊进行数据标准化的难度更大。到这里,你要说了,看起来好像就是个对话嘛。我用自然语言处理+知识图谱建专家系统,用电子病历系统喂数据,机器存储大又不会累,肯定比人类医生学得多快好省啊。很好,IBM搞watson也是这么想的。
其实问题就在这里。电子病历系统,也是医生通过整理自己问诊查体等临床诊疗过程写成的啊!在这个过程中,医生已经将患者的口水话和自己的观察,总结提炼转化为相对标准化的医疗术语了啊!
比如刚才那个病例,患者一来说“我昨天晚上啊吃火锅儿,那个黄喉和鸭肠好好吃哦,吃了嘿多嘿多,结果今天起来啊,拉稀摆带,跑鸟五趟厕所,都拉空奥,肚子哈是一直痛哦痛哦,到现在都不得好,就来了”
医生写病历时会写成“进食火锅后腹痛、腹泻4小时,持续无缓解”
而这个过程,原始数据是语音,需要AI进行理解,剔除无关信息,识别疾病相关的信息,并整理为相对标准化的医疗术语。以这个语境为例,要把“拉稀摆带”这个方言,转化为“腹泻”这个标准医学术语。可能有人说,那我用算法进行语义对应就行了。
然而问题在于,问诊过程,患者主动说的只是自己感受最强烈的,但是有些用以明确诊断的重要线索,是靠医生问出来的。
回到这个腹痛的病例,仅仅根据“进食火锅后腹痛、腹泻4小时,持续无缓解”就能明确诊断吗?如果患者还有呕吐呢?如果腹痛集中在中上腹呢?要不要与胰腺炎、胆结石相鉴别?如果这个患者是个育龄期女性,腹痛在右下腹呢?要不要与急性阑尾炎、卵巢黄体破裂、宫外孕破裂相鉴别?那么怎么收集相关的信息,怎么追问伴随的症状、病程的进展,这就考验医生的临床功底了。
此外,还有些信息是需要体格检查才能确认的。腹痛的具体位置、性质、有无压痛、反跳痛、肌紧张,有无肝脾肿大,有无腹部外形异常,有无局部瘀斑和肿块,这些都得通过体格检查进行确认。
说到这里我想起在消化科实习的一个案例。
患者青年女性,和男友在夜市上吃小龙虾后出现腹痛、呕吐。呕吐物为胃内容物,腹痛持续无缓解,进行性加重。于第二天早晨入院。期间排便三次,为黄色稀糊样便。腹部彩超未见明显异常。否认妊娠史,月经才结束。
看到这里是不是以为就是个吃小龙虾引起的急性肠胃炎?
然而最终诊断的疾病并不在消化系统。
尔后体格检查时发现心脏听诊有杂音,追问病史发现近半月每天有阵发性低热,腹部CT提示脾脏边缘有楔状梗死灶。然后加做心脏彩超,赫然发现心脏二尖瓣有一大个赘生物!
所以诊断是风湿性心脏病!
腹痛、呕吐是心脏瓣膜赘生物脱落引发的脾梗死造成的。
正是通过体格检查心脏听诊发现心脏杂音,追问病史才问出了“近半月每天有阵发性低热”,然后才进一步查心脏彩超,进而明确诊断。
也就是说,在真实世界的临床诊疗中,病史信息的收集本身是一个多维度信息集成的系统化工程。
要模拟好真实的诊疗情景,必须注意——
数据来源的可靠性,
问诊过程的有效性,
以及,反馈互动的及时性。
就现阶段看到的所谓的自然语言处理+知识图谱的诊断专家系统,其输入端的信息不是来自电子病历,就是来自网络问诊的问答对话。
其实,我自己的体会是,我们学习本科阶段医学理论基础通常需要三到四年,AI借助自然语言处理+知识图谱的专家系统,可以在很短的时间内学会我们需要几年学习的知识,甚至装下一整个医学图书馆的知识,就像IBM的Watson:
Watson 收集了一组罕见的患者症状,并提出了可能的诊断列表,每个诊断都注明了经Watson 计算出的信赖区间及与之相关的医学文献。
然而,如何将医学术语与实际临床表现相对应,用患者听得懂的语言进行问诊,问出我们想要知道的疾病相关的信息;
如何分辨患者所说的“肚子痛”“胸痛”具体所指的部位,如何鉴别“腰痛”是肾结石发作还是主动脉撕裂,如何追问用以鉴别诊断的病史;
如何正确地进行体格检查操作,并根据患者的反馈做出判断,如何将患者絮絮叨叨的自我描述转化为医疗文书…
是每个医生,在接诊了一个个的患者,在修改了无数次病历,在跟随上级进行了许多次查房,在经历各种操作甚至抢救,体验整个诊疗过程,又回头翻书做笔记,不断积累反思,才能最终形成的实用的临床诊疗思维系统。
在这个过程中,诊断所采集的信息是多通道的,包含视觉听觉触觉甚至是嗅觉;所分析的信息,也是多维度的,包括面容识别(如表情自然否?痛苦否?面色是苍白、潮红还是灰暗?)、外形识别(如皮肤黏膜正常否,有无瘀斑包块皮疹淋巴结肿大)、语音语调判断(是痛苦低沉,还是激动高亢?)、自然语言处理(如患者口语与医疗术语间的对应与转换)、触觉识别(局部有无压痛、反跳痛、肌紧张?)等等等等。
此外,这些信息也并非同时输入的,而是在不断的即时反馈中进行调整和修正,进一步输出追问和观察的注意力侧重,输出相应的采集指令,不断循环迭代反馈,直到信息采集完毕。
这个过程,我不否认或许科技发展到某一天,AI也能学会。
但现阶段,机器人还在学走路,学说话,要它能模拟实习医生,估计还早。
另一方面,病史采集,只有在面对面问诊和查体中进行,才能获得尽可能真实全面的信息。
而目前的网络问诊由于信息传递的损耗,以及没法进行查体等因素,对于许多需要进行临床鉴别诊断的初诊患者,是很难实现真实全面的信息采集。
也很难甄别,患者描述的症状是否真的准确对应实际的医学术语(比如苏明成说苏大强“狂躁!太狂躁了!”,就真的是指“躁狂发作”吗);
也让医生不敢下诊断,只能根据症状分析一下,然后说“建议您还是及时到门诊就诊”。
等到5G和全息投影大量普及,情侣间能异地感受真实的拥抱抚摸之时,或许网络诊疗能够比现在更进一步。
然而目前网络问诊,主要针对的是已有明确诊断,病情存在波动或对目前诊疗方案有疑惑的复诊患者。
这个时候,患者的提问如果是针对某个疾病,那么医生调用的也是只是内在的知识系统,针对的是该疾病的治疗方案进行分析。
在这样的情景下,信息传递也仅仅是单通道的文字信息,这确实比医院里面对面的问诊的情景更容易进行数据标准化处理。
于是也确实有公司在爬取网络问诊的数据,企图做成人工AI疾病诊断系统。
然而,目前做出来的,诊断率比较高的病种:肺炎,上呼吸道感染,嗯,怎么说呢,属于没学过医的我妈都能大概判断的。
然而就算我妈能大概判断,她也还是要带着疑似上呼吸道感染的我去医院开药。更不要说还有一些早期表现像感冒,病程进展加重后症状才开始典型的脑膜炎这类的疾病。
于是我们说到诊疗的另一个部分,诊断之后,治疗。
治疗的两大主流,药物治疗和手术治疗,俗称内科医生开药,外科医生动刀。
用药这一部分,如果是以电子病历的临床记录作为输入,治疗措施作为输出,Watson也能做到。
问题在于,治疗用药的方案,依据疾病诊断,但不仅仅依据诊断条目。还要考虑患者的症状分布、病情急缓、既往用药情况、身体基础、用药反应、经济状况等多方面因素,并且根据用药后的反应进行相应的调整。
也就是说,疾病是动态变化的,患者是有个体差异的,要想获得更好的治疗效果,首先得获取病程进展治疗反应等多通道多模态信息的及时反馈。
至于动刀这部分,假设是AI机器人来做,那么它得从视觉画面中实时识别器官组织血管神经,分离组织避开血管神经,找到目标病灶,进行相应的切割、缝合。
而仅仅是切割这一个动作,就涉及视觉触觉和操作手的实时反馈调整。毕竟不是菜场切肉块,只要切小随便切;也不是车床切钢板,一刀下去不会跑。
想想现在AI还在学怎么拿杯子倒水,就知道AI要能做手术,该走的路有多长了。
现在我们回到开头的问题:
医疗活动的哪些部分是AI可以替代医生的?
在易获得标准化数据、单通道信息处理的领域,比如辅助检查中的放射学影像诊断、病理图像诊断等部分。
哪些部分是AI不能替代医生的?
在非标准化数据与多通道信息处理领域,比如真实世界的临床诊疗,至少,目前AI是很难做到的。
在操作层面,鉴于AI更擅长处理大批量的标准化数据,我觉得AI会成为医生的好帮手,为快速辅助诊断提供优质信息。
在宏观层面,AI+医疗产业,并不能像早年的互联网公司创业那样,做一个APP,做一个游戏,就能在一片蓝海中找到自己的路。
医疗本身是一个既传统古老又是不断发展创新的行业,加上医疗本身的广谱性需求和社会价值,使得现代医疗资源必须掌握在政府(所管辖的医院)手里。
此外,相关的法律法规对诊疗行为的权限也有更加严格的规定,在线医疗并非如同在线教育那么简单。
故而,在临床诊疗这块需要的,不是AI+医疗,而是医疗AI。
临床的要求,是AI成为医生的帮手,减轻医生现有的繁杂工作,并通过5G+全息投影等整合升级互联网医疗,实现分级诊疗的同时对基层医院的诊疗水平进行标准化提升。
此外,我们也看到,深圳的医疗AI可以说是非常火热,几乎走在了整个中国的前面。不过,进一步分析,里面比较成熟的项目,仍然集中在辅助检查领域,仍然是容易标准化的图像数据,比如病理图像诊断,比如放射学影像诊断。而且,背后是深圳市政府的大力推动。
所以,在以诊疗为核心的领域,医疗资源以前是握在医院(政府)手里,以后也仍然是握在医院(政府)手里。
在诊疗之外,广义的医疗健康领域,仍是相对的蓝海。
在这些领域,以计算机技术为主导的AI+医疗,做健康管理、疾病预防、可穿戴监测等非疾病诊疗项目,相对更容易生存。
题图下载自免费图片网站https://www.pexels.com/photo/doctor-pointing-at-tablet-laptop-1282308/
Watson的报道引用自公众号驾御智行的文章《IBM Watson大裁70% 员工,撕掉了国内大批伪AI企业最后一块遮羞布!》
https://mp.weixin.qq.com/s?__biz=MzI4MDg3MTA1NA==&mid=2247485687&idx=2&sn=2d20bdb1e01e95850248680dc7dd365e&chksm=ebb0a116dcc728008caaf2f086e50befb39375e1860eb1d2d09315ff6db3884cc93e2ed06da3&mpshare=1&scene=23&srcid=0720erXKpBzFzE8A0Wj1vKWa#rd
后记:这篇文章其实从2019年5月的ACM大会上回来就开始酝酿,然而最后挤出来这么一点,只能说写作这东西用进废退。原本大会上拍的照片,写文章一个都没用上,看来还是在自己专业领域说话更顺畅一点。
其实AI在医疗领域应用很广,或者说医学本身就与各种新技术相交叉。本身在医学信息学、生物信息学领域,不管是药物研究还是基因分析,都会用到机器学习相关的算法,也会需要用到各种AI新技术。本文也仅仅是从一个医生的角度,聊聊我眼中的AI+医疗。
欢迎公众号(Dr.馨)留言探讨,也欢迎加本人微信qiahaohexin交流。
吸引子2019-07-21 20:37:07
对于医生来说,患者病情其实充满了噪声,因为噪声之多,才会影响医生对病情的真实判断,患者描述的只是他感受的东西,而人的感受夹杂着感性的东西又不带有完全的真实性,描述模糊,又比如人的视觉前景颜色对背景颜色的干扰产生了不同颜色。AI即使记录整理了一堆话,只能站在专业角度作为参考,不能偏听,医生必须用系统性的思考做出判断,因为人本身就是个复杂系统,同病不同治疗方法和不同症状采用同一治疗方法听说过一些,都是系统性的辨证施治的结果,虽然不是学医的,但很多东西都是采用相近的思维方式。5G发展再火,也不能捧上天,专业的东西没法完全替代,远程把脉倒是可以尝试,定性定量完全数字化,但也只能做为一项指标,不能直接下结论,这种远程是对电视剧中妃子王后的手腕缠纤丝把脉的发展[胜利]。还是回到解决问题的主题,都是工具的应用,切忌盲目使用新工具而丢弃思考解决核心问题,最终成了工具的奴仆!
Truman2019-07-21 20:51:10
哇 广告太多