[3-B-1-02] 自然言語生成の現状と展望
Natural Language Generation, Language Models, Deep Neural Networks
自然言語処理とは、言葉を理解・生成するコンピュータの実現を目指す研究分野であり、自然言語生成はその後段を担うものである。前段の自然言語理解では、言葉から理解した情報を人間に提示することで、文書分類や知識獲得など、様々なアプリケーションが実現されていた。ところが、自然言語生成の伝統的なアプローチはルールに基づくものが多く、株価やスポーツの結果を表す定型的な文章の生成か、機械学習に基づく手法が発展を遂げた機械翻訳などにアプリケーションが限定されてきた。ところが、2010年代に深層学習が自然言語処理に導入されると、その様相が一変する。2014年頃にニューラル機械翻訳モデルが出現し、2017年頃のTransformerモデルにより、40年以上の研究の蓄積があった従来手法を超える性能を達成した。また、2015年頃から抽象型(生成型)自動要約や画像からの文章生成、表などのデータからの生成の研究が盛んに行われるようになり、自然言語生成のアプリケーションが広がりを見せた。さらに、2018年頃から発展が続いているGPTなどの大規模言語モデルの出現により、一見すると自然に見える架空の新聞記事の自動生成や、プログラムの自動生成など、驚くようなアプリケーションが生まれつつある。
ところが、現状の言語生成モデルは大量の学習データに依存しており、学習データがあまり手に入らない自然言語生成タスクを実行させることは容易ではない。従って、対象とするタスクの学習データが少なくても、自然言語生成モデルの出力を柔軟に制御できる手法の研究を進めていく必要がある。本講演では、自然言語生成モデルの発展を概観したのち、東京工業大学情報理工学院・岡崎研究室で進められている研究として、生成文の長さの制御、忠実性の制御、内容の直接的な制御等の研究を紹介し、今後の研究の展望を述べる。
ところが、現状の言語生成モデルは大量の学習データに依存しており、学習データがあまり手に入らない自然言語生成タスクを実行させることは容易ではない。従って、対象とするタスクの学習データが少なくても、自然言語生成モデルの出力を柔軟に制御できる手法の研究を進めていく必要がある。本講演では、自然言語生成モデルの発展を概観したのち、東京工業大学情報理工学院・岡崎研究室で進められている研究として、生成文の長さの制御、忠実性の制御、内容の直接的な制御等の研究を紹介し、今後の研究の展望を述べる。