2025年度 人工知能学会全国大会(第39回)

講演情報

一般セッション

一般セッション » GS-11 AIと社会

[4I1-GS-11] AIと社会:

2025年5月30日(金) 09:00 〜 10:40 I会場 (会議室1004)

座長:小暮 悟(静岡大学)

09:40 〜 10:00

[4I1-GS-11-03] Transformerモデルにおけるトークン間関連度の再配分

Layer-wise Relevance Propagationに基づいたモデルの説明可能性

〇澤木 陽人1、村田 昇1 (1. 早稲田大学)

キーワード:説明可能性、Transformer、XAI、Layer-wise Relevance Propagation

TransformerモデルのAttention機構は、各トークン間の関連度を重みとして、互いの中間特徴を統合することで情報処理が行われる。そのため、最終層のAttention重みはしばしばモデルの説明として用いられることがある。しかし、これは各層で行われるトークン間のパターン変換の影響を適切に考慮しておらず、入力トークンの寄与を正確に評価できないため、解釈性に限界がある。本研究では、Layer-wise Relevance Propagation(LRP)の考え方を拡張し、Attention機構におけるパターン変換の関連度をトークン間で再配分しながら入力トークンにまで引き戻す手法を提案する。この手法により、Attention weightの単純な観測とは異なり、パターン変換が行われる前の入力トークンの影響を定量化することが可能である。入力に基づく情報の影響を正確に把握し、モデルの内的動作をより直感的に理解するための枠組みによって、Transformerモデルの解釈可能性と透明性を高め、応用分野における信頼性の向上にも寄与することが期待される。

講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。

パスワード