美国斯蒂文斯理工学院人工智能在医学影像分析中的应用与挑战
霍博肯,新泽西州,2025年12月11日讯——近年来,人工智能(AI)在医学影像分析领域已成为一项极具影响力的技术工...
霍博肯,新泽西州,2025年12月11日讯——近年来,人工智能(AI)在医学影像分析领域已成为一项极具影响力的技术工具。随着计算能力的持续提升以及可供机器学习的大规模医学影像数据库日益丰富,人工智能在解读X光、磁共振成像(MRI)及计算机断层扫描(CT)图像中的复杂模式方面,已展现出重要的辅助价值。它能够协助医生做出更快、更准确的临床决策,尤其在癌症等重大疾病的早期诊断与治疗规划中表现突出。某些情况下,这类人工智能工具甚至显示出超越人类医生的分析潜力。
“人工智能系统能够在极短时间内处理数以万计的医学影像,并提供高效、一致的预测结果,”史蒂文斯理工学院副教授奥努尔·阿桑表示。他的研究方向聚焦于医疗健康领域中的人机交互。“与人类不同,人工智能不会因长时间工作而产生疲劳,也不会因注意力分散而影响判断。”
然而,目前仍有许多临床医生对人工智能持保留态度,主要原因在于其决策过程缺乏透明度——即所谓的“黑箱”问题。阿桑指出:“当临床医生不了解人工智能是如何得出某项结论时,他们很难对其产生信任。因此,我们希望通过研究探讨:提供更多解释信息是否真能帮助临床医生?不同层次的可解释性又将如何影响诊断准确率及对人工智能系统的信任度?”
为此,阿桑与其博士生奥莉娅·雷扎伊安,以及里海大学助理教授阿尔帕斯兰·埃姆拉·巴伊拉克合作,开展了一项针对28名肿瘤科及放射科医生的实验研究。这些医生在人工智能辅助下分析乳腺癌影像,并获得了不同详细程度的解释说明,以了解人工智能判断的依据。随后,参与者接受问卷调查,评估他们对人工智能判断结果的信心程度以及任务完成的主观难度。
研究团队发现,与未使用人工智能的对照组相比,人工智能的确能够提升临床医生的诊断准确性,但其中也存在一些值得关注的复杂情况。
研究结果显示,提供更详尽的解释并不必然带来更高程度的信任。“我们发现,更高的可解释性并不等同于更高的信任度,”阿桑解释。这是因为过于复杂或冗长的解释会增加临床医生处理信息所需的时间与认知负荷,反而可能分散他们在影像本体上的注意力。当解释内容过于详细时,临床医生的决策时间明显延长,整体诊断效率与表现甚至可能因此下降。
“处理过量信息会显著增加临床医生的认知负担,从而提升误判风险,甚至可能对患者安全造成潜在威胁,”阿桑进一步说明,“我们不应通过堆叠冗余信息来加重使用者的心智负荷。”
此外,该研究还指出,在某些情境下,临床医生可能对人工智能过度信任,以致忽视影像中的关键细节,进而引发临床风险。“如果人工智能系统本身存在设计缺陷,而在用户信任度较高的情况下出现错误,部分医生可能不加批判地采纳其建议,未能对结果进行充分核查,”阿桑强调。
该团队的研究成果已分别发表于两篇近期发表的学术论文中:
《人工智能解释对临床医生乳腺癌诊断信任度与准确性的影响》,载于《应用人体工程学》期刊(2025年11月1日出版);
《可解释性与人工智能信心在临床决策支持系统中的作用:对乳腺癌诊疗中信任、诊断表现及认知负荷的影响》,发表于《国际人机交互杂志》(2025年8月7日出版)。
阿桑认为,人工智能未来必将成为临床医生解读医学影像的重要伙伴,但其系统设计必须审慎周全。“我们的研究表明,开发者在设计人工智能解释功能时应把握好平衡,避免系统因过于复杂而降低实用价值。”他同时补充,用户培训也至关重要,因为人类的监督与判断依然不可或缺。“使用人工智能的临床医生应接受相关培训,重点在于学会解读人工智能的输出逻辑,而非盲目依赖其结果。”
阿桑总结指出,理想的人工智能系统应当在易用性与实用性之间取得良好平衡。“研究表明,人们是否采纳某项技术,主要取决于其感知有用性与感知易用性。因此,如果医生认为某个人工智能工具既有助于提升工作质量,又易于操作融入日常工作流程,他们自然会愿意使用。”
关于史蒂文斯理工学院
史蒂文斯理工学院坐落于新泽西州霍博肯市,是一所享有盛誉的私立研究型大学。自1870年建校以来,技术创新始终贯穿于其教育体系与研究传统之中。在学院下设的三大学院及一所学系中,逾8000名本科生与研究生与教师紧密协作,在跨学科、以学生为中心、充满创业精神的学习环境中共同成长。涵盖商学、计算机、工程、艺术等领域的学术与研究项目,持续推动科学前沿发展,并致力于以科技之力应对全球性重大挑战。该校在毕业生职业服务、校友薪资水平及教育投资回报率等方面,长期被评为全美领先高校之一。
“人工智能系统能够在极短时间内处理数以万计的医学影像,并提供高效、一致的预测结果,”史蒂文斯理工学院副教授奥努尔·阿桑表示。他的研究方向聚焦于医疗健康领域中的人机交互。“与人类不同,人工智能不会因长时间工作而产生疲劳,也不会因注意力分散而影响判断。”
然而,目前仍有许多临床医生对人工智能持保留态度,主要原因在于其决策过程缺乏透明度——即所谓的“黑箱”问题。阿桑指出:“当临床医生不了解人工智能是如何得出某项结论时,他们很难对其产生信任。因此,我们希望通过研究探讨:提供更多解释信息是否真能帮助临床医生?不同层次的可解释性又将如何影响诊断准确率及对人工智能系统的信任度?”
为此,阿桑与其博士生奥莉娅·雷扎伊安,以及里海大学助理教授阿尔帕斯兰·埃姆拉·巴伊拉克合作,开展了一项针对28名肿瘤科及放射科医生的实验研究。这些医生在人工智能辅助下分析乳腺癌影像,并获得了不同详细程度的解释说明,以了解人工智能判断的依据。随后,参与者接受问卷调查,评估他们对人工智能判断结果的信心程度以及任务完成的主观难度。
研究团队发现,与未使用人工智能的对照组相比,人工智能的确能够提升临床医生的诊断准确性,但其中也存在一些值得关注的复杂情况。
研究结果显示,提供更详尽的解释并不必然带来更高程度的信任。“我们发现,更高的可解释性并不等同于更高的信任度,”阿桑解释。这是因为过于复杂或冗长的解释会增加临床医生处理信息所需的时间与认知负荷,反而可能分散他们在影像本体上的注意力。当解释内容过于详细时,临床医生的决策时间明显延长,整体诊断效率与表现甚至可能因此下降。
“处理过量信息会显著增加临床医生的认知负担,从而提升误判风险,甚至可能对患者安全造成潜在威胁,”阿桑进一步说明,“我们不应通过堆叠冗余信息来加重使用者的心智负荷。”
此外,该研究还指出,在某些情境下,临床医生可能对人工智能过度信任,以致忽视影像中的关键细节,进而引发临床风险。“如果人工智能系统本身存在设计缺陷,而在用户信任度较高的情况下出现错误,部分医生可能不加批判地采纳其建议,未能对结果进行充分核查,”阿桑强调。
该团队的研究成果已分别发表于两篇近期发表的学术论文中:
《人工智能解释对临床医生乳腺癌诊断信任度与准确性的影响》,载于《应用人体工程学》期刊(2025年11月1日出版);
《可解释性与人工智能信心在临床决策支持系统中的作用:对乳腺癌诊疗中信任、诊断表现及认知负荷的影响》,发表于《国际人机交互杂志》(2025年8月7日出版)。
阿桑认为,人工智能未来必将成为临床医生解读医学影像的重要伙伴,但其系统设计必须审慎周全。“我们的研究表明,开发者在设计人工智能解释功能时应把握好平衡,避免系统因过于复杂而降低实用价值。”他同时补充,用户培训也至关重要,因为人类的监督与判断依然不可或缺。“使用人工智能的临床医生应接受相关培训,重点在于学会解读人工智能的输出逻辑,而非盲目依赖其结果。”
阿桑总结指出,理想的人工智能系统应当在易用性与实用性之间取得良好平衡。“研究表明,人们是否采纳某项技术,主要取决于其感知有用性与感知易用性。因此,如果医生认为某个人工智能工具既有助于提升工作质量,又易于操作融入日常工作流程,他们自然会愿意使用。”
关于史蒂文斯理工学院
史蒂文斯理工学院坐落于新泽西州霍博肯市,是一所享有盛誉的私立研究型大学。自1870年建校以来,技术创新始终贯穿于其教育体系与研究传统之中。在学院下设的三大学院及一所学系中,逾8000名本科生与研究生与教师紧密协作,在跨学科、以学生为中心、充满创业精神的学习环境中共同成长。涵盖商学、计算机、工程、艺术等领域的学术与研究项目,持续推动科学前沿发展,并致力于以科技之力应对全球性重大挑战。该校在毕业生职业服务、校友薪资水平及教育投资回报率等方面,长期被评为全美领先高校之一。