2025年度 人工知能学会全国大会(第39回)

講演情報

オーガナイズドセッション

オーガナイズドセッション » OS-42 大規模言語モデルの安全対策 ― 大いなる力には、大いなる責任が伴う

[3F4-OS-42a] 大規模言語モデルの安全対策 ― 大いなる力には、大いなる責任が伴う

2025年5月29日(木) 13:40 〜 15:20 F会場 (会議室1001)

オーガナイザ:金子 正弘(MBZUAI),小島 武(東京大学),磯沼 大(The University of Edinburgh/東京大学),丹羽 彩奈(MBZUAI),大葉 大輔(ELYZA/東京科学大学),村上 明子(AIセーフティーインスティチュート),関根 聡(情報学研究所),内山 将夫(情報通信研究機構),Danushka Bollegala(The University of Liverpool/Amazon)

15:00 〜 15:20

[3F4-OS-42a-05] 生成的推薦の人気バイアスの分析:暗記の観点から

〇石原 祥太郎1 (1. 株式会社日本経済新聞社)

キーワード:生成的推薦、暗記、人気バイアス、大規模言語モデル、ニュース

大規模言語モデルの推薦への応用に注目が集まる中,公平性に関する議論は発展途上である.本研究では,大規模言語モデルの課題の一つとして指摘されている訓練データの暗記に着目し,生成的推薦システムを分析する.具体的に日本語ニュースメディアのログデータを用いて,ユーザが閲覧する記事タイトルの変遷を予測するように Llama 3 をファインチューニングし,訓練データの暗記を定量化した.実験の結果,人気記事が過度に推薦されるバイアスが存在し,その要因が訓練データの暗記の観点で解釈できると示唆された.解釈を活用し,暗記の対応策として知られる重複排除が,生成的推薦の人気バイアスの軽減に利用可能であることも実証した.

講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。

パスワード