一項新的研究表明,機器學習和AI在醫學圖像重建中非常不穩定,并且可能導致誤報和誤報。
由劍橋大學和西蒙弗雷澤大學領導的一組研究人員針對基于AI和深度學習的醫學圖像重建算法設計了一系列測試,發現這些技術會導致大量偽像或數據中的不必要更改,以及最終圖像中的其他主要錯誤。在基于非AI的成像技術中通常不存在這種效果。
這種現象廣泛分布在不同類型的人工神經網絡中,這表明該問題將不容易解決。研究人員告誡說,依靠基于AI的圖像重建技術進行診斷并確定治療方法可能最終會對患者造成傷害。他們的結果發表在《美國國家科學院院刊》上。
劍橋大學應用數學系主任安德斯·漢森(Anders Hansen)表示:“ 人們對醫學成像中的 AI充滿熱情,它可能具有革新現代醫學的潛力:但是,存在潛在的陷阱,不容忽視。”理論物理學,由西蒙·弗雷澤大學的本·阿德考克博士領導研究。“我們發現AI技術在醫學成像中非常不穩定,因此輸入的微小變化可能會導致輸出的巨大變化。”
典型的MRI掃描可能需要15分鐘到兩個小時之間的任何時間,具體取決于掃描區域的大小和所拍攝圖像的數量。患者在機器內花費的時間越長,最終圖像的分辨率就越高。但是,需要限制患者在機器內花費的時間,以減少單個患者的風險并增加可以執行的掃描總數。
使用AI技術提高MRI掃描或其他類型醫學成像的圖像質量是解決在最短時間內獲得最高質量圖像的問題的有吸引力的可能性:理論上,AI可以拍攝低分辨率圖像并使其成為高分辨率版本。AI算法基于先前數據的訓練來“學習”重建圖像,并通過此訓練過程來優化重建質量。與僅基于數學理論而不依賴先前數據的經典重建技術相比,這代表了根本性的變化。特別是,古典技術不會學習。
任何AI算法都需要兩件事來保證可靠性:準確性和穩定性。AI通常會將貓的圖像分類為貓,但是圖像中幾乎看不見的微小變化可能會導致算法將貓分類為卡車或桌子。在此圖像分類示例中,可能出錯的一件事是圖像分類不正確。但是,在圖像重建(例如醫學成像中使用的圖像重建)方面,可能會出錯。例如,諸如腫瘤之類的細節可能會丟失或被錯誤地添加。細節可能被遮蓋,并且圖像中可能會出現不需要的偽影。
漢森說:“當涉及到有關人類健康的關鍵決策時,我們不能讓算法犯錯誤。” “我們發現,如果您使用AI和深度學習來重建醫學圖像,那么最細微的損壞(例如可能是由患者移動引起的)可能會產生截然不同的結果,這意味著這些算法缺乏所需的穩定性。”
Hansen及其來自挪威,葡萄牙,加拿大和英國的同事設計了一系列測試,以發現基于AI的醫學成像系統(包括MRI,CT和NMR)的缺陷。他們考慮了三個關鍵問題:與微小擾動或運動相關的不穩定性;關于微小結構變化的不穩定性,例如帶有或不帶有小腫瘤的大腦圖像;以及樣本數量變化的不穩定性。
他們發現某些微小的運動會導致最終圖像中出現大量偽像,細節被模糊或完全去除,并且圖像重建的質量會因重復進行二次采樣而變差。這些錯誤廣泛分布在不同類型的神經網絡中。
研究人員認為,最令人擔憂的錯誤是放射科醫生可能將其解釋為醫學問題,而不是那些由于技術錯誤而可以輕易消除的錯誤。
漢森說:“我們開發了這項測試,以驗證我們的論點,即深度學習技術在醫學成像中普遍不穩定。” “我們進行預測的理由是,在有限的掃描時間下如何進行良好的重建是有局限的。從某種意義上說,現代AI技術打破了這一障礙,結果變得不穩定。我們通過數學方法證明了為這些不穩定因素付出代價,或者簡單地說:仍然沒有免費的午餐之類的東西。”
研究人員現在專注于提供AI技術可以完成的基本限制。只有知道了這些限制,我們才能了解可以解決的問題。漢森說:“基于試驗和錯誤的研究永遠不會發現煉金術士無法制造黃金:我們在現代AI方面處于類似情況。” “這些技術永遠不會發現自己的局限性。這些局限性只能以數學方式顯示出來。”
-
神經網絡
+關注
關注
42文章
4762瀏覽量
100537 -
深度學習
+關注
關注
73文章
5492瀏覽量
120977
發布評論請先 登錄
相關推薦
評論