10:00 〜 10:20
[2L1-GS-2-04] ニューラル生成文に含まれる事実不整合の検出と修正
キーワード:BERT、事実不整合問題、対話
本研究では,事実不整合検出の為の分類モデルと事実不整合修正の為の生成モデルとを組み合わせて,文章に含まれる事実不整合の修正を行い,ニューラルネットを用いた文章生成モデルの出力に事実不整合が含まれることを防ぐことを目的とする.
検出,修正モデルの学習には文章生成を行うモデルの学習データセットを改変した人工的なデータセットを用いる.
修正モデルのみを用いた場合と比較を行った結果,検出モデルを入れることで修正モデルによる整合文から不整合文への書き換えを防ぎつつ,事実不整合を含む文章の書き換えを行うことができることが示された.
しかし,二つのモデルの解決可能,不可能な問題に同様の傾向が見られた.
より性能を上げるために,それぞれのモデルが相補的に働くことができるような学習データを用意する必要があると考える.
検出,修正モデルの学習には文章生成を行うモデルの学習データセットを改変した人工的なデータセットを用いる.
修正モデルのみを用いた場合と比較を行った結果,検出モデルを入れることで修正モデルによる整合文から不整合文への書き換えを防ぎつつ,事実不整合を含む文章の書き換えを行うことができることが示された.
しかし,二つのモデルの解決可能,不可能な問題に同様の傾向が見られた.
より性能を上げるために,それぞれのモデルが相補的に働くことができるような学習データを用意する必要があると考える.
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。