16:10 〜 16:30
[2T5-OS-5b-03] 人間の判断根拠は文脈によって異なるのか?〜信頼されるXAIに向けた人間の判断根拠理解〜
キーワード:AIの説明可能性、意思決定、信頼できるAI
人工知能(AI)が高い予測精度を達成しており、人間の予測タスクの支援としての活用が著しい。AIは高い精度を達成するために、複雑化し、その挙動を人間が理解することが難しい。この問題を解消するために説明可能なAIでは、AIを理解するために根拠説明を人間与え理解を促してきた。説明は人間への理解を促せる一方で、信頼醸成や適切な利用に至らない問題もあった。人間にとってAIを信頼するための説明はどのようなものであるかは明らかになっていない。我々は、AIを信頼するための説明として人間の判断に沿った根拠説明が有効であると考えた。本研究では、既存研究においてAIに対する信頼に影響を与えるとする2つのAI利用状況の違い(判断結果の重要性と判断内容)に着目した。これらの状況の違いにおける、人間の判断根拠を理解するために、まず人間がAIを使わずに判断する場合を調査し、判断に用いる根拠が変化することを確認した。本研究成果は、同じAIを利用する場合でも、そのAIの利用状況によって人間がAIを信頼するために必要な根拠説明が異なる可能性を示唆している。
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。