Japan Association for Medical Informatics

[4-F-2-04] 医療テキストを画像に変換して、ResNetを適用する転移学習

*Hongjian Zhang1, Katsuhiko Ogasawara1 (1. 北海道大学大学院保健科学院)

Text Classifier, Medical Text, Neural Network, ResNet

背景・目的:医療テキストは自然言語処理で有用な情報を抽出でき、意思決定や健康情報の検索などに役に立つ。医療テキストに対する自然言語処理について、高い解釈性を持つ分類方法は主に辞書ベースやルールベースの手法であり、メンテナンスに大量なコストが必要である。しかし、近年画像識別方法の正確率は人間より高い識別率を有する。そこで、我々はテキストデータを画像に変換して、高正確率を持つ画像識別方法を応用してテキストデータの分類正確率を上げることを試みた。 方法:PubMedから、「abdominal」と「pulmonary」(以下AとPで表示する)をキーワードとし、各1000件の論文抄録を抽出した。前処理して、Word2Vecで特徴抽出を行い、テキストを300×300のグレースケールに変換し、Aで24、Pで26個の画像を得た。各20個を訓練データとし、残りを検証データとした。最後にデータ拡張し、(訓練データ200:検証データ50)サイズのデータセットを得た。次に、このデータセットに対して、画像識別方法のResNetを転移学習した。事前訓練有無の状況、異なる画像識別方法(ResNet-18,34,50)、と伝統的なテキスト分類器(ナイーブベイズ)間の 正確率を比較した 結果・限界:事前に訓練されたResNetを使用した転移学習は、より優れた検証精度を示した(約98.9% : 65.5%)。 ResNet-18、-34、および-50の検証正確率は、それぞれ85.7%、93.0%と98.9%であり、ナイーブベイズの正確率(92.4%)より高くなった。本研究の方法は伝統的なテキスト分類器より高い正確率を示したが、使用したデータセットは論文の抄録であるため、実際の医療レポートに応用する場合と異なる可能性がある。また、限界点としてテキストを画像に変換する過程は、情報の損失が避けられないことが挙げられる。