第26回画像センシングシンポジウム

招待インタラクティブ発表

IS ポスタールーム (Webex)

招待インタラクティブ発表は、実行委員会が画像関連技術における注目の取り組みをセレクトし、インタラクティブセッションにてご発表いただく企画です。発表のコアタイムは各日のインタラクティブセッションです。各分野でご活躍の発表者と直接ディスカッションができるチャンスですので、どうぞお楽しみに!

 


IS1
コンピュータビジョンの観点からみた AI の公平性
6/10 (水) 14:35〜15:30 IS ポスタールーム (Webex)

山田 亮佑 氏


片岡 裕雄 氏

発表者:
山田 亮佑 氏(東京電機大学)
片岡 裕雄 氏(産業技術総合研究所)​

概要: 機械学習の発展に伴い、 機械学習を取り入れた実応用システムの需要が高まっている。 メディアでも機械学習に関連する記事が頻繁に取り上げられ、 世間からの期待や注目度の高さがうかがえる。 ここで、実応用システムに機械学習を取り入れる過程で重要な要素となるのが「公平性」や「倫理」といった問題である。 機械学習を取り入れた実応用システムにより下される意思決定は我々人間の生活に大きく影響を及ぼすと考えられる。 時として性別や人種、 年齢などの人間の先天的な情報に基づいて意思決定が下された場合、 立場や状況によっては不公平な意思決定となり得てしまう。本稿では、 コンピュータビジョンを中心に公平性の研究に関してサーベイし、 世界における研究動向と現状について紹介する。また、我々が研究する自然画像を用いず数式ドリブンにより生成した画像から構成される公平性を担保可能なデータベースの提案について紹介する。

 

参考URL:AI の公平性
https://www.slideshare.net/cvpaperchallenge/ai-229094219

 

実行委員会からの紹介:機械学習の推論結果の公平性 (Fairness)、説明責任 (Accountability)、透明性 (Transparency)、および倫理 (Ethics) は、まとめてFATEと呼ばれ、活発な議論がされ始めている非常に注目度の高い分野です。コンピュータビジョンの観点から AI の公平性に関して精力的にサーベイ研究を実施している山田様、片岡様をお招きし、実際に起きた問題や研究事例について解説いただきます。ご期待ください!

 

IS2
Adversarial Examples 研究動向
6/11 (木) 15:35〜16:30 IS ポスタールーム (Webex)

発表者:福原 吉博 氏(早稲田大学)​

概要:本発表では、敵対的サンプル (Adversarial Examples) の分野について、これまでの研究の流れの概観と最新の研究動向の説明を行う。研究の流れについては2つの側面から概観を行う。 まず、「攻撃・防御手法の提案を行なっている研究」の概観では、これまでに提案されている様々な攻撃手法や現在も有効とされている防御手法の紹介を行う。一方、「原因・性質の分析を行なっている研究」の概観では、 敵対的サンプルに対する脆弱性の原因がどのように解釈されてきたのかを説明し、敵対的サンプルに頑健なモデルのもつ性質として報告されていることを説明する。 その後、最新の研究動向をいくつかのテーマに分割して説明し、最後に敵対的サンプルが実際に脅威となり得る分野の1つとして、近年盛んに研究が行われている deepfake 検出の例を紹介する。

 

参考URL:敵対的サンプル
https://www.slideshare.net/cvpaperchallenge/adversarial-examples-229232499

 

実行委員会からの紹介:“panda”とラベルづけられた画像に微小なノイズを混入させるだけで、深層学習をいとも簡単に欺くことができてしまう。。。この、敵対的サンプルの説明によく使われる画像が掲載された論文にインスパイアされた関連の研究事例は膨大で、技術トレンドのキャッチアップに苦労されている方は多いでしょう。敵対的サンプルに関して豊富な知識と経験をお持ちの福原様をお招きし、最新の研究動向についてわかりやすく解説していただきます。ご期待ください!

 

IS3
画像認識モデルからの情報流出の可能性とその対処法に関する検討
6/12 (金) 14:35〜15:30 IS ポスタールーム (Webex)

発表者:中村 和晃 氏(大阪大学)​

概要:近年、画像認識機能を提供するクラウドサービスが登場し、注目を集めつつあります。一方で、このようなサービスに対し適当な画像を送信・入力し、その結果を解析することにより、認識モデルに含まれる情報を不正に取得する攻撃の可能性が指摘されています。こうした攻撃の脅威がどの程度現実的であるかを調査し対処法を考案することは重要な課題と言えます。本発表では、具体的な攻撃の例として、対象の認識モデルからその訓練画像の推定・再生成を試みる Model Inversion Attack (MIA)、および、対象の認識モデルと同等の機能を有するクローンモデルの構築を試みる Model Extraction Attack (MEA) を取り上げ、その実現法および対処法に関する我々のこれまでの取り組みを紹介いたします。

 

実行委員会からの紹介:商用の画像認識クラウドサービスが普及し始めている昨今、これらのサービス自体を守るためのセキュリティに関しても検討することが急務と言えます。画像認識モデルからの情報流出の可能性とその対処法に関して先進的な研究を実施されている中村様をお招きし、サービスに対する攻撃の事例とその対処法の両方について、最新の取り組み事例をご紹介いただきます。ご期待ください!