17:40 〜 18:00
[1C5-GS-11-03] 画像解釈器への進化型敵対的攻撃における離散ウェーブレット変換の活用に関する基礎検討
[[オンライン]]
キーワード:説明可能AI、敵対的事例、画像認識、深層学習、離散ウェーブレット変換
深層ニューラルネットワーク(DNN)は幅広い分野で活用されており,実問題への応用が進んでいる.また,近年では,人の意思決定にかかわる業務をDNNに代替させる取り組みが増えてきている.しかし,このような場面では,出力結果への公平性や倫理面での妥当性,モデルの不透明性などが生じることが問題となっている.これらを軽減するために,DNNの推論根拠を説明する説明可能AIの研究が活発に行われている.一方,DNNに基づくモデルには,入力データに人間には知覚できないような特殊な摂動を加えることで誤った判断を引き起こす敵対的事例(AEs)と呼ばれる脆弱性が存在することが明らかにされている.このような脆弱性は画像分類における説明手法である画像解釈器においても存在することが確認されており,AIの信頼性という観点から,画像解釈器の脆弱性の調査が不可欠である.本研究では,攻撃対象モデルの内部構造が未知であるブラックボックス条件下において進化計算と周波数解析手法の一つである離散ウェーブレット変換を用いた摂動付与方式を提案する.これにより,従来手法と比較して探索効率を改善できることを確認した.
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。