图示说明:人工智能程序可以利用输入信息生成多种类型的输出结果。
核心信息:机器学习与人工智能技术在提升心胸外科领域方面前景广阔,但同时也伴随着潜在的伦理与法律风险。
观点陈述:机器学习与人工智能技术虽在心胸外科实践中应用尚属近期,但已在床边护理和手术室内对患者治疗做出了重要贡献。本次小型专题研讨将探讨其广泛益处,同时也关注其带来的诸多伦理与法律挑战。
引言:迈向未来的一大飞跃——人工智能在心胸外科的应用
作者:Robert M. Sade, 医学博士
机器学习与人工智能(AI)近期被引入心胸外科(CTS)实践,展现出在病床旁和手术室内为患者护理带来重要贡献的前景。然而,随着其应用的推进,也带来了许多关于这类强大技术潜在用途与滥用的新挑战。例如,患者隐私、知情同意以及外科医生与机器在决策过程中的相对角色等问题,必须在AI融入临床实践的最初阶段就加以认真应对。
此外,还必须警惕人工偏见以及机器学习所用数据中可能存在的偏差,将其排除于AI设计之外,以避免造成或加剧医疗服务与健康结局中的不平等问题。法律问题同样引发对AI在外科应用中的诸多质疑:当发生错误时,谁应承担责任——外科医生、程序开发者、设备制造商,还是三者共同承担?
AI对影像数据的分析未来有可能为外科医生的术前计划提供巨大帮助。本次小型专题研讨聚焦于心胸外科医生尤为关心的一些问题。
Parisa Rashidi 讲解了AI在外科应用中涉及的一些伦理与法律问题;Arman Kilic 着重分析了AI在心胸外科中特有的风险;Adrienne Kline及其同事展示了计算机图像分析如何为外科医生提供先进算法,以分析医学影像数据,从而帮助精确规划手术过程;更重要的是,他们强调了外科医生在AI开发和融入外科实践中的关键作用。
人工智能在外科手术中的伦理与法律影响:探索新的前沿
作者:Parisa Rashidi,博士
人工智能(AI)是计算机科学的一个子领域,旨在开发能够执行通常需要人类智能的任务的计算机系统,例如视觉识别、自然语言处理和语音识别。近年来,人工智能的快速发展预示着它将在心脏和胸部手术中带来重大变革。这一转变有望解决外科决策中固有的一些难题,尤其是在心胸外科(CTS)这类高压环境中,外科医生所面临的时间限制与认知压力问题。
在心胸外科中,AI辅助系统可以预测术后并发症,如脓毒症、谵妄、心律失常或血糖波动等。这些短期内即可实现的应用,有助于减轻外科医生的认知负担,改善患者预后,并协助完成一些繁琐但至关重要的术前任务,例如管理电子病历。尽管将AI融入外科治疗具有令人振奋的前景,但也不能忽视其中诸多伦理问题,包括公平性、公正性、透明度、问责制,以及对外科医生和患者自主权的尊重。
近年来,多个针对通用人工智能以及更专业的医疗人工智能应用的伦理框架陆续被提出。2020年,Fjeld及其同事提出了“人工智能伦理框架”,强调在隐私、问责、安全性、保障、公平性、自主权、专业责任和国际人权等方面采取有原则的方法来规范人工智能的发展。其他研究人员也提出了更适用于医疗领域的伦理框架,面向AI开发者,并支持通过“伦理AI清单”将技术性人工智能解决方案在医疗实践中具体化。
AI辅助手术中的“行善”与“无害”原则
“行善”(beneficence)和“无害”(non-maleficence)原则在心胸外科中至关重要。人工智能辅助工具能够通过在冠状动脉搭桥术或肺叶切除术等复杂手术过程中提供实时分析与决策支持,从而减少术中与术后风险。然而,人们也对多数现代AI算法(如大型神经网络)难以解释的特性表示担忧,这种“黑箱”特性可能使外科医生难以充分理解其潜在后果与风险。
为缓解这些问题,确保AI系统的透明性和可审计性成为关键步骤。这可通过以下手段实现:使用可解释人工智能(XAI)方法,输出可理解的结果(如视觉显著性图、特征重要性排名);将AI决策日志整合进手术记录中,供事后审查;在算法开发和验证阶段引入临床专家,确保其临床相关性和安全性。
患者自主权与知情同意
在AI伦理原则中,人类自主性(human agency)始终是核心议题之一,对于医护人员与患者的决策均极为重要。2019年,欧盟人工智能高级专家组在《值得信赖的人工智能伦理指南》中将“尊重人类自主性”列为四项基本伦理原则之首。
在外科AI应用中,尊重自主性意味着应确保外科医生和其他医护团队成员能自主做出决策,而非在无意识中被AI系统弱化或取代其判断力。维护外科医生的自主性可以通过以下几种机制实现:人类参与循环(human-in-the-loop):每一个决策周期中都有人类介入;人类监控循环(human-on-the-loop):人类参与系统的设计阶段并监控系统运行;人类主导(human-in-command):从更广泛的设计视角监督AI系统,包括社会影响。
同样地,患者自主原则要求提供关于医疗AI应用的全面且易于获取的信息,以使患者能做出知情决定。将AI系统融入临床实践的同时,必须开发更为先进的知情同意机制,让患者明确是否接受医疗AI的参与。
近年来,一些学术研究已提出相关框架以明确AI在医疗中的角色。例如,Liao提出的框架将AI系统划分为四类:I型:嵌入人体内,具有自主决策能力;II型:位于人体外部,具有自主决策能力;III型:嵌入人体内,但仅作为人类决策的输入参考;IV型:位于人体外部,仅作为人类决策的输入参考。
诸如Liao所提出的框架,可以作为医患沟通的重要工具,帮助患者理解不同AI系统的本质区别及其相关风险,从而在各种治疗方案中做出更有依据的选择。
算法公平性与医疗公平
在医学人工智能(AI)领域,追求公平性是另一个至关重要的问题。最新研究显示,AI算法中潜在的偏见可能加剧医疗保健中的差异。在外科护理中整合AI系统时,解决这些偏见至关重要,以确保医疗服务在不同地理区域和社会经济背景下都具有可及性并实现公平的治疗结果。
虽然“可解释性”和“可理解性”可以作为诊断模型差异和解释模型输出的有力工具,但简化的解释往往也可能掩盖系统中一些不良特征,从而使AI公平性问题更加复杂。因此,必须纳入“算法公平性”这一概念,以更好地量化算法在个体或群体层面上的性能差异。
此外,许多先进的AI模型需要大量计算资源,这使得它们在某些环境中(例如偏远地区或中低收入国家)难以普遍应用或推广,从而可能进一步扩大医疗AI的差距与偏倚风险。
为减少不同社区之间的获取差距,并从长远角度提升医疗AI的公平性,应当:开发开源医学基础模型,推动医疗AI培训的普及化,提供隐私保护的数据共享与评估机制。这些举措有望在全球范围内改善医疗AI的公平性,促进更广泛的可及性和成果均衡。
AI 在心胸外科(CTS)中的实际应用
除了伦理性框架之外,近年来还提出了许多工具包和检查清单,用于在实践中构建具备伦理性的医疗AI系统。一篇近期的综述文章概述了多种现有工具,包括:各类检查清单,隐私保护算法,可解释性和公平性工具,用于衡量相关算法性能的指标(例如 IBM 360 工具包中的公平性指标),用于阐明利益相关方价值的流程模型,用于隐私和公平性审计的工具,以及如“负责任AI许可证模型”等授权机制。
这些工具多数具有通用性,适用于广泛领域,包括医疗保健和外科护理。不过,在某些情况下,这些工具的使用仍需要根据特定领域的需求进行调整。
此外,随着大语言模型的广泛应用,学术界应当包容多种视角,讨论AI在医疗沟通中的角色及其影响,尤其是在近期生成式AI工具在回答患者问题时,展现出高质量和高共情分数的背景下。这方面的深入研究与社区讨论,有望促进最佳实践和使用指南的制定,特别是在患者沟通及相关领域。
在当前临床实践中,AI已能够提供多种帮助,例如:在复杂手术前进行精确的影像分析,识别高风险解剖结构(如冠状动脉阻塞、肺切除术前的肺动脉变异等),预测术后并发症,实时监测患者术后恢复情况。
法律影响:AI辅助手术中的责任归属问题
AI的应用同样引发了许多法律问题,特别是在AI辅助手术发生不良后果时,关于责任和问责的问题。例如,一项对2000多名医疗提供者的调查显示,在假设使用手术机器人时,不同程度的自主性可能导致不同的法律后果。因此,解决这些问题将需要重新评估现有法律框架,以适应AI应用的独特性。
针对AI在商业和学术领域的快速发展,政府监管机构已经在探索制定平衡创新与患者安全的相关指导方针。
从根本上讲,AI在手术中的应用不仅挑战了现有的法律和伦理规范,还要求重新构想医学教育和专业发展,以帮助培养能够适应技术驱动未来的下一代外科医生。这也强调了在推进AI融入外科研究和实践时,采取跨学科协作的重要性,呼吁AI研究人员、法律专家、伦理学家和医学专业人士之间的合作,共同制定一条在尊重伦理原则、处理技术复杂性、保证法律合规和保护患者福祉之间平衡的道路。
使用人工智能和机器学习在胸心外科中的潜在危险
Arman Kilic, MD
人工智能在胸心外科中的潜在应用
人工智能(AI)在胸心外科(CTS)中有许多潜在的应用。环境文档记录和影像学研究的自动化解读是当前医疗领域中较为成熟的AI应用之一。几家获得大量资金的大公司已经开发出利用AI记录门诊就诊过程中音频数据并自动化文档记录过程的产品。更广泛地说,尤其是在医生职业倦怠的背景下,消除繁琐的任务为AI创新提供了丰沃的土壤。
在影像学方面,卷积神经网络和深度学习的应用推动了静态图像和视频研究解读的迅速发展。在胸心外科中,使用AI自动解读胸部X光、超声心动图和左心导管检查等研究,可以更好地促进工作流程效率、对异常或高风险研究的分类,以及将专家级解读技术推广到可能缺乏专家资源的地区。
除了这些应用外,AI和机器学习还能够更好地处理复杂数据并预测如死亡率和并发症等结果。一些机器学习算法相较于传统统计方法的优势在于,它们能够考虑多变量之间复杂的相互关系,并将这些关系运用到预测建模中。在许多情况下,使用相同的数据集,机器学习方法在预测结果时能够提高辨别能力(例如c-index),超越传统方法。这些方法在胸心外科领域尤为重要,因为公开报告的结果和某些护理环节的标准化是该领域的支柱。
使用人工智能在医疗中的守门人
尽管人工智能(AI)在胸心外科中的应用前景令人兴奋,但仍需承认并积极应对AI带来的重大威胁和风险。围绕AI在医疗领域的商业初创公司数量正在呈指数增长。数字健康和AI在医疗领域的风险投资金额巨大,2021年峰值接近300亿美元,目前每年的平均投资超过100亿美元。尽管技术开发和资金投入激增,AI在日常临床护理中的实际应用却滞后。许多临床医生对使用AI仍然不知情或感到不适应。尽管AI对医疗系统使命和价值的潜在影响很大,尤其是在面向患者的领域,但其目前的采纳程度仍然较低。
这引出了医疗领域AI应用中最重要的问题之一:谁将充当实施的守门人?许多利益相关者可能参与这个过程,包括临床医生、患者、医院管理员、AI公司、投资者和监管机构。传统上,患者仅与医生互动,获取有关医疗护理的建议和指导,但在新的范式下,私人企业可以直接访问患者数据,并直接与患者互动,绕过临床医生。一个例子是可穿戴技术,通过这种技术收集的生物医学数据直接提供给企业。另一个例子是新兴技术,如“盒子医生”或“护理舱”,这种AI驱动的界面可以与患者对话、抽取血液、分析各种数据并提供医疗护理,最终目标是消除对初级保健医生的需求。名为Forward的公司已被估值为10亿美元,并在多个融资轮次中筹集了超过6亿美元,计划在美国的购物中心和办公楼部署25个这样的护理舱。
医生与患者关系
虽然技术对我们的社会进步至关重要,但将人工智能(AI)应用于医疗中也存在潜在的风险。一个严重的担忧是患者与医生关系的恶化。皮尤研究中心进行的一项调查发现,美国人认为AI可能通过减少医疗提供者的错误来改善医疗。然而,只有13%的人认为AI能改善患者与医疗提供者的个人关系。另一项研究向社交媒体平台发布了患者提出的问题,并要求医生和AI驱动的聊天机器人提供答案。结果显示,聊天机器人在回答质量(聊天机器人平均得分4.67,医生得分3.33)和同理心(聊天机器人平均得分4.33,医生得分2.00)方面大大超越了医生。
职业倦怠
AI的另一个潜在风险是可能加剧医生的职业倦怠。如果AI系统产生过多的假阳性或警报信号,可能导致警报疲劳,并增加医生的工作负担,而不是提高生产力或效率。为了解决这个问题,作为最终用户的临床医生应在技术开发的初期阶段就参与其中,以确保所开发的技术能够在实际的临床环境中使用。此外,在技术投入实际使用之前,对这些系统进行试点研究至关重要,评估指标应包括技术对医生生产力和工作流程的影响,以及医生对该产品的满意度,包括其可用性、与现有护理流程的整合和准确性。
对AI的信任
患者和临床医生对AI的信任是医疗中AI的另一个潜在威胁。对AI的信任可以类比于对自动驾驶汽车的信任。即使自动驾驶汽车在减少车祸发生率方面表现较好(例如较低的车与行人碰撞率),当自动驾驶汽车发生撞击行人的事件时,媒体的关注度和公众的焦虑感明显高于人工驾驶的事故。这提醒我们,在AI做出医疗决策时,我们需要审慎思考,确定在出现错误时的容忍度,以及这如何影响未来该技术的应用。此外,从监管和法律的角度来看,目前AI在医疗中的责任界定仍不明确。出现医疗决策错误时,谁应该为此负责:是AI开发者、临床医生,还是医疗系统?这些问题目前尚未得到解答,但随着这一领域的发展,必将成为重要的讨论话题。
数据隐私问题
另一个潜在的风险是数据隐私和安全问题,尤其是患者数据的保护和网络攻击对数据安全的威胁。AI和机器学习算法需要大量的数据,这意味着它们在数据量更多时往往表现得更好。此外,为了真正验证这些算法,某些测试群体应当来自医院外部或不同患者亚群体,而不仅仅是系统开发所在的医院或患者群体。因此,多中心的数据共享对于验证和完善稳健的AI算法至关重要。考虑到这些因素,数据安全问题变得更加突出,尤其是当分析可能需要在高性能的云服务器上运行,而这些服务器通常不在医疗系统的内部数据环境中受到保护,而是由第三方来保障安全时。
知情同意与偏见
在AI参与患者医疗过程中,如何获得患者的知情同意尚不明确。AI系统可能非常复杂,难以向临床医生解释,更难以向患者说明。伦理考量包括算法的公平性和减少算法偏见。偏见可能在AI流程的任何阶段出现,包括研究问题的制定、数据收集和预处理、模型开发和验证以及模型实施。例如,这些偏见包括采样偏见、测量偏见、混杂偏见和概念漂移。采样偏见发生在用于开发AI算法的数据未能代表目标人群,或者样本量不足以准确推广时。测量偏见是指不同群体的数据准确性存在差异。混杂偏见则是在算法未能考虑未测量的因素时,这些因素却影响了相关性或结果。概念漂移指的是数据的变化使数据模型失效,换句话说,改变了输入和输出之间的功能关系。
防范AI风险和威胁的措施
为了最小化AI对医疗健康带来的风险和威胁,必须保护数据并负责任地共享数据,且在算法开发中应保持透明度,并尽量减少偏见。标准应由跨学科的专家委员会制定并执行。更广泛地说,AI在各行各业的国家级监管也在逐步进行。例如,欧盟通过了《AI法案》,为AI分配了不同的风险等级。不可接受的风险包括社交评分、大规模监控或行为操控造成伤害等,这类AI被禁止。高风险包括教育和公共服务、执法以及车辆的安全组件,这些都需要进行合规性评估。有限风险包括冒充、聊天机器人、深度伪造和情感识别,这一类别需要透明度义务。美国白宫也发布了《AI权利法案》蓝图,美国国会正在考虑2023年提出的《联邦AI风险管理法》。
变革是不可避免的,医疗行业也无法避免变革。未来十年,医疗系统中的工作流程、人员配置和临床护理将发生重大变化。AI将在面向患者和行政管理的医疗领域扮演越来越重要的角色。临床医生不应回避和抗拒AI,而应作为守门人,引领AI如何融入医疗服务的决策过程。
计算机视觉在优化心脏外科护理中的意义
引言
人工智能(AI)的一个目标是减轻重复性数据驱动任务的负担,这些任务具有可辨识的模式。在医学的多个领域,已记录到AI技术与临床医生相比,能够显著减少诊断肋骨骨折所需的时间,减少幅度超过90%。对于外科医生来说,减轻重复性任务的负担可以提高临床实践的有效性、经济性、效率和可靠性。计算机视觉(CV)是AI的一个领域,专注于从图像和视频中提取信息和知识。CV在医学影像中的应用集中于图像分类、定位、检测、分割和配准。然而,尽管这些进展已经取得,AI辅助影像报告的创建与后续技术实施之间仍存在断层。这是因为,尽管计算机在“看”视觉输入方面取得了进展,但创建能够“理解”的算法要复杂得多。这一空白为CV研究提供了一个充满潜力、令人兴奋和蓬勃发展的领域。
一个外科医生熟悉的“看”视觉输入的例子是,通过3D影像软件辅助识别主动脉或冠状动脉的血流中心线。将这些数据转化为临床决策通常需要放射科医生或外科医生进行大量人工操作。然而,近年来计算能力的提升旨在减少图像操作和分析所需的人力时间,从而有潜力提高决策的速度和准确性。
计算机视觉在胸心外科中的应用现状
近期的计算机视觉(CV)算法在医学影像中的应用,主要集中在基于图像的检测任务,例如判断疾病是否存在。例如,X光影像已被用于检测新冠肺炎、肺炎或潜在的恶性肿瘤。在临床护理的多个环节中,CV与胸心外科的结合是可能的。例如,在任何侵入性干预之前,患者会接受影像学检查,以评估结构和功能,包括计算机断层扫描(CT)、磁共振成像(MRI)、血管造影以及超声心动图(图1A)。现在,可以利用专门为CV任务策划的大型影像数据集来开发具有临床应用价值的技术。这类影像数据的可用性,不仅为解剖学干预提供信息,还能评估干预的成功性(例如,在瓣膜置换术前后的超声心动图),使胸心外科成为CV创新的热点领域。
围手术期规划、风险分层和基于影像的决策制定,都可以通过CV来增强。病例规划可能需要多项高度特定于手术的测量,如动脉瘤的大小和形状、瓣膜的形态以及相关的主动脉瓣解剖结构(如环直径和冠脉高度)。这些分割任务通常需要人为手动完成,以启动半自动测量。CV能够简化这些任务,并提高准确性。
例如,Astudillo等人评估了CV在通过术前CT扫描确定主动脉瓣环平面和与冠脉口的距离中的作用,用于规划经导管主动脉瓣植入术(TAVI)。他们发现,使用三种卷积神经网络的误差低于人工评估的观察者间变异性。Astudillo等人还研究了用于TAVI程序的自动化植入尺寸确定,具体针对Edwards Sapien-3和Medtronic Evolut假体。他们发现,针对TAVI的CV解决方案推理时间不到一秒,而专家手动测量则需要5到10分钟。TAVI-PREP被训练在MM-WHS开源数据集上,设计用于提取主动脉瓣复合体的22个不同测量值,采用UNet架构。TAVI-PREP与专家测量结果高度一致,Pearson相关系数范围为0.90到0.97。
在接受左心室辅助装置(LVAD)植入的终末期心力衰竭患者中,约三分之一发展为临床显著的右心室(RV)衰竭,这是该人群短期死亡率的最大贡献因素。Shad等人设计了一种算法,利用724个术前的4腔心超声影像,来预测LVAD植入后右心室衰竭的发生几率,获得了0.729的曲线下面积。尽管还需要进一步发展,但未来外科医生可能能提前判断,哪些患者需要在LVAD植入时同时进行右心室辅助装置的植入,以减少死亡率。我们的研究团队利用血管造影开发了相关解剖和疾病流行情况的识别技术。这些解决方案最终可用于指导再灌注策略。
通过高质量的训练数据,CV分割算法不仅能准确测量静态的三维数据,还能从视频中提取心脏功能的各个方面,如射血分数、腔室尺寸、壁运动和瓣膜功能。整合解剖和功能影像数据,可以对患者的心脏状况进行全面评估,这对于手术规划至关重要,也有助于评估手术成功的可能性。
计算机视觉在胸心外科中的未来机会
尽管CV解决方案的开发可能需要较长时间,但其主要目的是提高临床护理的效率和准确性。许多CV研究方向,尽管在其他外科应用中已有研究,但尚未在胸心外科领域进行转化。例如,外科医生的灵活性可以通过在手术中和模拟中使用物体检测算法进行评估。视觉模型可以被训练从视频中提取细致的信息,用以评估手术的复杂性。例如,Ward等人观察到,腹腔镜胆囊切除术中,CV检测到的炎症会增加手术时间。同样,心脏外科手术的风险可以通过将CT数据中的脏器和心外脂肪负担与回顾性队列中的已知结果相关联来量化。
如果将CV提取的信息与临床笔记、时间序列(如心电图和血流动力学数据)、结构化的电子健康记录数据(如人口统计信息、实验室数据)相结合/增强,将进一步增加其价值。这些多模态数据流尝试统一不同的信息,以代表临床决策过程(图1C)。使用视觉模型的多模态/融合架构,还可以通过将术后结果与术前计划进行比较,确保已经进行预定的修正,并为后续患者护理提供反馈。
例如,机器学习确定术后房颤或急性肾损伤,展示了影像数据与其他变量的整合。利用计算机的高吞吐量能力及算法的可重复性和标准化,使得对大量数据进行预筛查成为可能,以识别需要进一步调查的异常特征,并监测和量化结构变化和疾病状态的变化。这种能力使得即使在积累大量数据的情况下,长期患者随访也变得更加可管理。CV工具将越来越多地帮助我们更好地理解疾病随时间的进展,例如,识别无症状瓣膜患者早期的心室变化。此外,AI的使用已被证明能够减少影像阅读时间。
挑战
大量的影像数据及其相关报告存储在医疗中心和开源数据库中,但其中许多缺乏专家临床注释,无法用于监督学习。开发包含详细注释的数据集非常重要,这些注释应能标识对人类专家观察者来说重要的视觉特征,例如冠状动脉狭窄的边界或主动脉夹层瓣膜中窗孔的位置。由于获取专家注释既费时又昂贵,自监督学习可以被用来减少开发监督模型所需的手动注释数量。自监督学习是人工智能的一个子领域,利用数据增强帮助计算机理解数据的潜在几何和语法结构。这在计算机视觉中非常有用,因为它能显著减少开发基于AI的解决方案所需的时间密集型注释。
尽管计算机视觉在理论上具有很大的潜力,但其转化为临床应用的进展仍然有限。一个原因是,通常通过使用算法输出提供的信息来获得其效用。这种方法的成功依赖于将这些算法赋予临床背景(例如,患者状态或已知的解剖结构和临床工作流程),这被称为知识表示(图1B)。从临床影像中提取的AI派生的测量结果可以组织成结构化的影像报告,以便在专科医生之间传递。这些近实时算法有潜力被部署到嵌入式系统(如电子健康记录)、影像存档与通信系统或手术视频流中,为外科医生和临床同事提供指导,帮助他们在手术过程中导航复杂程序,并做出明智决策。
计算机视觉算法在胸心外科的临床应用具有巨大的潜力,可以提高精度、决策制定能力和患者结果。然而,监管批准和合规性至关重要。美国食品药品监督管理局(FDA)确保此类算法的安全性和有效性,而遵循国际标准化组织(ISO)和国际电工委员会(IEC)制定的标准,则保证了质量、可靠性和互操作性。同样重要的是解决偏见和公平问题,因为在不平衡或不具代表性的数据集上训练的算法可能导致不平等的医疗服务。必须严格遵守《健康保险携带与责任法案》(HIPAA)规定,以保护患者隐私,确保敏感医疗数据的安全处理,保持对AI驱动临床应用的信任(图1D)。
结论
莫拉维奇悖论表明,对于人类来说容易完成的任务(感知和本体感觉)对计算机来说很难,而那些对人类来说更困难的任务(逻辑和推理)则可以轻松地转交给算法和计算机。胸心外科中的计算机视觉任务特别复杂,因为它们涉及到许多步骤,需要“看到”和理解大量的视觉输入。计算机视觉的潜在应用机会,只有通过将计算机视觉算法与临床见解结合,才能实现。将此类计算机视觉解决方案应用于胸心外科手术实践,可以扩展到其他当前使用影像数据的临床领域。计算机视觉驱动的人工智能工具,能够协助诊断、规划、风险分层和管理复杂病理,为胸心外科医生的能力提升和高质量患者护理的提供做好准备。