[3Yin2-26] BERTを用いた言語横断型評判分析手法の比較
キーワード:言語横断、評判分析、BERT
本研究では,訓練データが少ない言語の商品レビューの評点予測について,三種のBERTを用いた言語横断型の手法の性能比較を行う.評判分析はレビューの評価を予測するタスクであるが,データが少ない言語を対象とする場合,訓練データの不足から精度が低くなりがちである.こうした問題に対し,多くのデータが入手可能である他の言語のレビューを言語横断的に用いる手法が研究されている.また,近年,事前学習済みモデルであるBERTをfine-tuningする手法が高い性能を示している.そこで本研究では,大量の英語データと少量の日本語データを用い,BERTを用いた言語横断型の手法を三通り試してその性能を比較した.具体的には,転移学習済み英語BERTに日本語を機械翻訳したテストデータを渡す手法A,日本語BERTに英語を機械翻訳した訓練データを渡し学習させる手法B,多言語入力対応のBERTに英語と日本語の対訳を訓練データとして渡し学習させる手法Cの三手法を試した.少量の日本語データのみで日本語BERTを利用したベースラインモデルと比較し,手法A, Cは性能を落としたが,手法Bは性能を向上させることが分かった.
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。