15:20 〜 15:40
[4P3-OS-8-05] 事前学習モデルBERTによる法令用語の校正
キーワード:法令用語校正、BERT、事前学習モデル
法令文書には,「者」「物」「もの」や「規定」「規程」のように互いに類似している法令用語が出現する.このような法令用語は,法制執務(法令の起草・制定・改廃など法令文書の作成・管理に関する業務)の慣習や規則によって使用法とともに定義されている.法令において,これらの法令用語はそれに従い,厳密に書き分ける必要がある.契約書や約款などの広義の法令文書においても,誤解を防ぐために,法令に準じて正しく書き分けることが望ましい.そこで,本研究では,与えられた法令文から法令用語を検出し,誤用と思われるものに対してその修正案を出力することにより,法令文書の作成を支援する手法を提案する.本手法では,このタスクを選択肢付き穴埋め問題とみなし,分類器により解決する.分類器は,一般文によって事前学習したBERTモデルから構築する.このとき,(1)法令文によるドメイン適応,(2)訓練データのアンダーサンプリング,(3)分類器の統一の三つの工夫を施すことにより性能向上を図る.実験の結果,ランダムフォレストやニューラル言語モデルによる分類器よりも本手法の方が高い性能を発揮することを明らかにした.
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。