18:40 〜 19:00
[2A4-05] 入力データ非貢献部抽出によるCNNの出力の説明
キーワード:畳み込みニューラルネット、説明性
近年の機械学習技術の研究では,特に認識・予測の精度の高さに注目が集まっている.
しかし,実応用の場面においては,単に精度だけでなくあわせてモデルの説明性が必要とされることがある.
本研究では,画像認識のための深層学習モデルであるConvolutional Neural Network (CNN)を対象に,その説明性を高める方法を提案する.
CNNの説明性を高める方法として,モデルが入力画像のどの部分を根拠に認識を行っているかを特定してハイライトする方法が研究されている.
このような説明法を用いることで,モデルの認識根拠を人間が視覚的に検証できるようになる.
提案法では,モデル説明のための新しいハイライト法として「モデル出力に寄与しない入力画像の非貢献部をハイライトする」方法を提案する.
従来の手法では,モデル出力と関連が強い入力画像領域を貢献部としてハイライトする.
これに対し,本研究では非貢献部に着目することで,これら従来の手法とは逆のアプローチを取る.
提案法は従来法のようにモデル線形化のような粗い近似を必要としないという点において,モデルのより本質的な情報に基づいたハイライトを生成できると考えている.
しかし,実応用の場面においては,単に精度だけでなくあわせてモデルの説明性が必要とされることがある.
本研究では,画像認識のための深層学習モデルであるConvolutional Neural Network (CNN)を対象に,その説明性を高める方法を提案する.
CNNの説明性を高める方法として,モデルが入力画像のどの部分を根拠に認識を行っているかを特定してハイライトする方法が研究されている.
このような説明法を用いることで,モデルの認識根拠を人間が視覚的に検証できるようになる.
提案法では,モデル説明のための新しいハイライト法として「モデル出力に寄与しない入力画像の非貢献部をハイライトする」方法を提案する.
従来の手法では,モデル出力と関連が強い入力画像領域を貢献部としてハイライトする.
これに対し,本研究では非貢献部に着目することで,これら従来の手法とは逆のアプローチを取る.
提案法は従来法のようにモデル線形化のような粗い近似を必要としないという点において,モデルのより本質的な情報に基づいたハイライトを生成できると考えている.