用人工智能评估脑肿瘤

   日期:2025-03-03     来源:本站    作者:admin    浏览:621    
核心提示:      来自达姆施塔特工业大学、剑桥大学、科技公司默克公司和慕尼黑工业大学的Klinikum rets der Isar的一个国际研究小组

  

  tumors

  来自达姆施塔特工业大学、剑桥大学、科技公司默克公司和慕尼黑工业大学的Klinikum rets der Isar的一个国际研究小组参加了一个国际和跨学科的合作,研究软件系统如何收集、处理和评估特定任务的相关信息,从而支持人类的工作,在这种情况下,是放射科医生。

  该研究提供了机器学习系统(ML系统)对人类学习影响的经验数据。这也表明,对于最终用户来说,机器学习方法的结果是否可理解、可理解是多么重要。这些见解不仅与放射学的医学诊断相关,而且与通过日常使用人工智能工具(如ChatGPT)成为ML输出审查者的每个人都相关。

  该研究项目由TU研究员Sara Ellenrieder和Peter Buxmann教授领导,研究了基于ml的决策支持系统在放射学中的应用,特别是在MRI图像中脑肿瘤的人工分割方面。重点是放射科医生如何从这些系统中学习,以提高他们的表现和决策信心。

  作者比较了机器学习系统的不同性能水平,并分析了解释机器学习输出如何提高放射科医生对结果的理解。这项研究的目的是找出放射科医生如何从这些系统中长期受益并安全地使用它们。

  为此,项目组与各诊所的放射科医生进行了实验。在接受基于ml的决策支持之前和之后,医生被要求在MRI图像中分割肿瘤。为不同的组提供不同性能或可解释性的ML系统。除了在实验中收集定量的表现数据外,研究人员还通过“大声思考”协议和随后的访谈收集了定性数据。

  在实验中,放射科医生对690例脑肿瘤进行了人工分割。结果表明,放射科医生可以从高性能机器学习系统提供的信息中学习。通过互动,他们提高了自己的表现。

  然而,该研究还表明,在低性能系统中缺乏ML输出的可解释性可能导致放射科医生的表现下降。有趣的是,提供ML输出的解释不仅提高了放射科医生的学习效果,而且还防止了学习错误信息。事实上,一些医生甚至能够从低绩效但可解释的系统所犯的错误中吸取教训。

  达姆施塔特工业大学的彼得·布克斯曼教授总结道:“人类与人工智能合作的未来在于开发可解释和透明的人工智能系统,特别是使最终用户能够从系统中学习,并在长期内做出更好的决策。”

  更多信息:论文:通过可解释的人工智能促进学习:放射学的实验研究由达姆施塔特工业大学提供引文:用人工智能评估脑肿瘤(2023年,12月19日)检索自https://medicalxpress.com/news/2023-12-brain-tumors-artificial-intelligence.html。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行