2025年度 人工知能学会全国大会(第39回)

講演情報

オーガナイズドセッション

オーガナイズドセッション » OS-42 大規模言語モデルの安全対策 ― 大いなる力には、大いなる責任が伴う

[3F5-OS-42b] 大規模言語モデルの安全対策 ― 大いなる力には、大いなる責任が伴う

2025年5月29日(木) 15:40 〜 17:20 F会場 (会議室1001)

オーガナイザ:金子 正弘(MBZUAI),小島 武(東京大学),磯沼 大(The University of Edinburgh/東京大学),丹羽 彩奈(MBZUAI),大葉 大輔(ELYZA/東京科学大学),村上 明子(AIセーフティーインスティチュート),関根 聡(情報学研究所),内山 将夫(情報通信研究機構),Danushka Bollegala(The University of Liverpool/Amazon)

15:40 〜 16:00

[3F5-OS-42b-01] AIの安全性に関する世界の動きとAI Safety Institute(AISI)について

〇村上 明子3,2、多賀 和宏1,2、瀬光 孝之1,2、関根 聡4 (1. 独立行政法人情報処理推進機構、2. AIセーフティ・インスティテュート、3. 損害保険ジャパン株式会社、4. 国立情報学研究所 大規模言語モデル研究開発センター)

キーワード:人工知能、AIセーフティ、AIリスク

生成AIや基盤モデルの進化に伴うAI技術の高度化・汎用化により,その利用範囲が急速に拡大するとともにAIのリスクに関しても関心が高まっている.AI技術の発展のためには安心安全なAI活用の実現が不可欠であり,そのためにはどのようなリスクが現在顕在化しているのかの整理と,今後どのようなリスクが起こり得るのかについての議論が急務である,また,技術的にそれらのリスクをどのように捉えることが可能かと言うことも検討していく必要がある.本稿では,そのようなAI安全性について情報のハブとなるべく設立されたAIセーフティイン・スティテュート(AISI)の取り組みを紹介するとともに,今後のAI安全性について研究業界にどのような活動をしてもらいたいか述べる.加えて,国際的なAIセーフティの議論や国際AISIネットワークの状況を概観し,将来的なAIセーフティの方向性について考察する.

講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。

パスワード