Japan Association for Medical Informatics

[2-J-4-04] 血球画像診断支援における機械学習モデルの判読根拠の一貫性検証 -白血球分類を事例に-

*Shota Iino1, Hiroyuki Miyajima1 (1. 国際医療福祉大学  臨床工学特別専攻科)

XAI, consistency analysis, blood cells, machine learning

【目的】近年機械学習は急速に進展しており、医療画像の診断支援における機械学習モデルの利用が期待されている。数多くの機械学習モデルが提案され、高精度に画像分類・検出が可能になった一方で、多くの機械学習モデルは判断根拠を示すことなく分類結果や検出結果を出力する。医療従事者の医療画像診断支援を行う上では、機械学習モデルがなぜそのような判断を行ったのかを把握し、一貫して信頼性のある判断結果を出していることの確認が重要である。機械学習モデルの判断根拠を可視化する手法として説明可能なAI(XAI)の様々な手法が提案され検証されているが、特徴的な画像をアドホック的に分析されていることが多い。医療診断のように高度な安全性が求められる用途では、学習済み機械学習モデルが判断した特徴を明らかにし、網羅的な評価を行う事が求められる。 【方法】本研究では、学習済み機械学習モデルがそれぞれの白血球画像のどこに注目して判断しているかをXAIにより可視化し、白血球画像の分類を行うための特徴の組合せを網羅的に分析した。それらの特徴の組合せに対して分類結果が一貫しているかの分析を形式手法を用いて行い検証を行った。【結果】公開されている白血球画像を用いて白血球を検出し分類するSingle Shot Multibox Detector(SSD)モデルの学習を行った。その学習済みモデルを用いて、全てのテスト画像に対してXAIの手法を用いて学習済み機械学習モデルの注目箇所を可視化し、血液分類のガイドラインを基に識別した白血球の特徴パラメータの組み合わせに対して分類結果の一貫性があるかを検証した。一貫性検証の精度を評価し、その結果を考察することにより、手法の有効性を示した。 【考察・結論】血球画像からの白血球等の自動検出および分類は、各種疾患の診断ならびに予後判定上重要であり、本研究の成果により信頼性のある説明可能な機械学習を用いた診断支援が可能になることが期待される。