17:20 〜 17:40
[1P5-OS-16b-02] 説明性と公平性を担保するStakeholder-in-the-Loopな意思決定枠組みの検討
[[オンライン]]
キーワード:人工知能、AI倫理、説明可能性、公平性、ステークホルダー・イン・ザ・ループ
機械学習技術には不透明性が含まれるため,行政や企業で利用される意思決定支援システムに機械学習が用いられる場合は説明性と公平性の担保が必要である.説明性と公平性の要件はシステムの意思決定の影響を受ける利害関係者の価値観によって異なるが,各利害関係者にとって適切なアウトプットに関する議論が不足している.本発表では説明性と公平性の要件を決定するための『利害関係者による公平な意思決定』の枠組みを提案し,考慮すべき4つの利害関係者にとって適切なアウトプットをどのように検討すべきか議論する.さらに,利害関係者の多様な価値観を抽出し,すべての利害関係者が合意するアウトプットに統合する取り組みの事例として,我々が行っている雇用AIの利害関係者を対象とした実証研究を紹介する.雇用AIの説明性と公平性を担保するために,アンケートを通じて利害関係者の価値観を数値的に抽出し,統合したアウトプットにおいて誰が利益を得るか/損失を被るのか数値的に説明するシステムを提案し,クラウドソーシングによる実験の結果を報告する.
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。