16:00 〜 16:20
[4D4-OS-4c-02] 人の感情を反映したマルチモーダル対話システムモデルの提案
キーワード:Affective Computing、対話システム、マルチモーダルインタフェース
対話システムが人間のように対話できない原因の一つとしてインタラクションにおいて人の感情を反映できていないことが挙げられる.
そこで,本研究では人の感情を反映させたシステムの構築を目的として表情,声のトーン,発話内容のマルチモーダルな感情値を入力としてインタラクションを行う対話システムモデルを構築する.
提案手法は,マルチモーダルの感情値を入力として,XGBoostによって学習してモデルを構築する.発話によって得られたマルチモーダルの感情値をモデルに入力して状況にあった表情の絵文字を表示してシステムは発話する.
比較対象を用意し実験を行った.評価として,アンケートを行なった結果,提案モデルが最も状況にあった表情を表示していることが示された.このことから多くのモーダルを入力とした方が,対話における適切な表情を決定できることが確認できた.
そこで,本研究では人の感情を反映させたシステムの構築を目的として表情,声のトーン,発話内容のマルチモーダルな感情値を入力としてインタラクションを行う対話システムモデルを構築する.
提案手法は,マルチモーダルの感情値を入力として,XGBoostによって学習してモデルを構築する.発話によって得られたマルチモーダルの感情値をモデルに入力して状況にあった表情の絵文字を表示してシステムは発話する.
比較対象を用意し実験を行った.評価として,アンケートを行なった結果,提案モデルが最も状況にあった表情を表示していることが示された.このことから多くのモーダルを入力とした方が,対話における適切な表情を決定できることが確認できた.
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。