Japan Association for Medical Informatics

[3-B-1-03] 言語で説明できるAIへの道のり

*Kentaro Inui1 (1. 東北大学大学院情報科学研究科)

Natural Language Processing, Explainable AI, Knowledge and Reasoning


深層学習の爆発的な発展によってAIは長足の進歩を遂げた。しかし、深層学習の成功はこれまでのところ、画像/音声認識、機械翻訳など、大量の訓練データが入手可能であり、end-to-endの学習が可能な領域に限られている。また、よく指摘されるように、end-to-endの学習で得られる深層ニューラルネットはいわゆるブラックボックスであり、判断の解釈や説明が難しい。これに対し、我々の研究グループでは、現在のend-to-endの学習では解決が難しい問題のうち、「言語」の問題、とくに、人間であれば判断の過程や理由を言語で説明できる種類の問題に焦点を当て、人が説明するのと同様の仕方で判断を説明できる新しい計算パラダイムをねらっていきたいと考えている。本講演では、我々のねらいと現状を研究動向とともに紹介し、今後の展望を論じたい。