2022年度 人工知能学会全国大会(第36回)

講演情報

オーガナイズドセッション

オーガナイズドセッション » OS-4 人工知能におけるプライバシー,公平性,説明責任,透明性への学際的アプローチ

[4G1-OS-4a] 人工知能におけるプライバシー,公平性,説明責任,透明性への学際的アプローチ(1/2)

2022年6月17日(金) 10:00 〜 11:20 G会場 (Room G)

オーガナイザ:福地 一斗(筑波大学)[現地]、荒井 ひろみ(理研)、工藤 郁子(大阪大学)

10:20 〜 10:40

[4G1-OS-4a-02] 偽発見率を保証したコンセプトによる説明可能モデルの学習

〇徐 楷文1,2、福地 一斗1,2、秋本 洋平1,2、佐久間 淳1,2 (1. 筑波大学、2. 理化学研究所 革新知能統合研究センター)

キーワード:説明可能なAI、統計的有意性、変分オートエンコーダ

近年,深層学習モデルに解釈性を与える研究が近年盛んに行われている.コンセプトボトルネックモデル(CBM)は,画像入力から人間が直感的に理解できるコンセプトへ,そしてコンセプトから目標値へ線形モデルでマッピングする説明可能なモデルである.人間はモデルの予測したコンセプトを参照することで,モデルの判断根拠を理解することができるため,解釈性の高い手法だと考えられている.CBMは解釈性に優れるが,サンプルの識別において,あるコンセプトが本当に予測に重要かどうかは統計的な裏付けがない.そこで本研究では,CBMで予測をするとき,予測に重要なコンセプトを一定の偽発見率の下でコントロールする手法を提案する.本手法ではコンセプトの表現に変分オートエンコーダーによって獲得される潜在変数を利用し,ノックオフ(Knockoff)と呼ばれる特徴選択のツールを用いて,提案モデルにおける識別に重要なコンセプトの偽発見率を一定以下に保証される.実験では,複数のデータセットを用いて,提案手法で選択したコンセプトが高い解釈性を持し,かつ,選択したコンセプトだけを用いて予測を行うときでも高い予測精度に達成できることを示す.

講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。

パスワード