The 27th Kinki Association for Clinical Engineers

Presentation information

一般演題

オンデマンド配信(一般演題) » その他

その他

座長:小笹 真(第二富田クリニック 臨床工学科)、椋本 匡俊(第二大阪警察病院 医療技術部 臨床工学科)

[13-05] FDG-PET像異常検知に向けたCT像からFDG-PET像へのAI画像変換の検討

*瀬川 新1、根本 充貴1、甲斐田 勇人3,4、山口 明乃2、木村 裕一2、永岡 隆2、山田 誉大4、北島 一宏5、石井 一成3,4 (1. 近畿大学生物理工学部、2. 近畿大学大学院 生物理工学研究科、3. 近畿大学 医学部 放射線医学教室 放射線診断学部門、4. 近畿大学高度先端総合医療センター PET分子イメージング部、5. 兵庫医科大学 放射線医学講座)

【目的】 人工知能(AI)技術を用いたCT像からFDG-PET像への変換法を検討する。PET像は局所糖代謝を示した画像で、糖代謝が活発ながんなど病変スクリーニングに適する。一方、PET像上では高代謝組織や排泄経路等も強調される。PET像上の病変認識には各臓器の標準的な代謝・解剖情報の事前知識が必須である。本研究では、AI深層学習モデルの1つであるU-Netを用い、PETと同時撮像されるCT像を各臓器の標準的代謝情報を反映した推定正常PET像に変換する方法について、範囲を胸部に限定した初期検討を行う。

【手法】 提案するCT-PET画像変換法は、U-Netを用いて胸部の任意CT像Axialスライスから同位置のPET像Axialスライスを得るものである。U-Netに入力するCT像は、事前に肺野および軟部組織の認識に適したウインドウ条件(レベル-600、幅-1600)で画素値正規化を行う。用いるU-Netは、畳み込み層5層、Max-Pooling層4層による画像の特徴抽出・ダウンサンプリングと、それと対称な層構造のアップサンプリングで構成され、各畳み込み層にはBatch Normalizationが付与される。

【結果】 近畿大学病院および兵庫医科大学病院にて診療目的で撮像された病巣を有しないFDG-PET/CT像40症例を用い、画像変換U-Netの学習を行った。U-Netの学習が収束することを確認し、推定PET像-真のPET像間の画素当たりSUV二乗誤差平均0.0823の結果を得た。一方、目視評価をしたところ真のPETと類似性の低い推定PET像が出力されていた。

【結語】  CT像からPET像への画像変換はU-Netで学習可能であることが示唆された一方、手法に改善の余地があることが分かった。今後は、学習の損失関数に関する検討などを行う。