Japan Association for Medical Informatics

[3-G-4-02] AI診断支援システムは、エビデンスを出せるか?
- ニューラルネットワークによるランキング学習と、代理モデルとの融合による説明可能なAI -

*Yasuhiko Miyachi1, Osamu Ishi1, Keijiro Torigoe2,1 (1. 臨床推論実用化研究会, 2. 岡山県 井原市 鳥越医院)

Clinical Decision Support System, Explainable Artificial Intelligence, Learning to Rank, k-Nearest Neighbors surrogate model, Example-based explanations

Introduction: 診断支援システム(CDSS)の推論結果に対して、説明可能なAI(XAI)により、その予測データの元となった症例データとそのエビデンス情報を利用者に提示する方法を提案する。また推論結果の信頼性情報の推論方法についても考察する。ベースとなるCDSSは第41回医療情報学連合大会(2021)
[3-G-1-08]で発表したシステムである。本CDSSは利用者が患者の自他覚症状、各種検査結果等を入力すると可能性のある疾患の順位付きリストを出力する。これまで、単一疾患を対象とするCDSSについては、SHAP等を利用したの研究が進んでいる。本研究は、多疾患に対応したCDSSについてのXAIであり、Evidence
Based AI的手法の提案である。
Methods: 本CDSSの症例データ(訓練データ)は、筆者らが収集した医学文献(専門書・論文・症例報告等)の情報がベースである。本CDSSの主モデルの推論アルゴリズムは、ニューラルネットワーク(NN)とランキング学習(LTR)である。XAI用の代理モデルの推論アルゴリズムはk近傍法(k-NN)であり、訓練データ・入力データは主モデルと同一である。k-NNは解釈可能な機械学習モデルであり予測データの元となった訓練データのインスタンスを識別できる。
Results & Discussion: 推論性能の評価では、代理モデル(k-NN)は主モデル(NN + LTR)より劣る。しかし両モデルの予測データの融合により代理モデルの予測データおよびその関連情報は主モデルの予測データの説明に利用できると判断した。
Conclusion: 本CDSSおよび今回提案したXAI機能は現在の大規模言語モデル(LLM)とは異なり、推論結果のエビデンス・信頼性に関する情報を利用者に示すことができる可能性がある。