2023年度 人工知能学会全国大会(第37回)

講演情報

一般セッション

一般セッション » GS-2 機械学習

[2A6-GS-2] 機械学習:一般

2023年6月7日(水) 17:30 〜 19:10 A会場 (メインホール)

座長:森 隼基(NEC) [現地]

18:50 〜 19:10

[2A6-GS-2-05] FT-Transformerの精度向上と効率化に関する―考察

〇磯村 時将1、天野 智貴1、清水 良太郎1、後藤 正幸1 (1. 早稲田大学)

キーワード:Transformer、Attention、表形式データ、説明可能AI、DNN

近年,ディープラーニングモデルは様々なデータに対して高い性能を発揮している.表形式データに対しても,現在主流な勾配ブースティングモデルよりも高い精度を示すことが示唆され始めており,特にDLモデルの一つであるTransformerモデルを表形式データに適用したFT-Transformer (FTT)はその有力な一手法となっている.Transformerは,元々非構造化データに対する予測のために提案されており,Attention機構により全特徴量(単語やパッチ画像など)間の高度な関係性を考慮することで高い性能を示す.しかし,表形式データの特徴量同士の関係性は文書や画像のような非構造化データに比べそれほど複雑ではないことが考えられる.そこで,本研究ではFTTにおけるTransformerのAttention機構において,特徴量同士の関係性を過度に考慮せず,不要な情報を削減することで精度や計算効率を改善する,表形式データに適した改良型のFTTを提案する.さらに,機械学習における代表的なタスクである回帰・二値分類・多値分類のそれぞれのタスクに関する評価実験により提案手法の有効性を示す.

講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。

パスワード