[4Xin2-104] 多言語学習のためのBrainLMマルチモーダルモデルによるアンサンブル転移学習
キーワード:BrainLM、転移学習、多言語学習
最近,マルチモーダルモデルBrainLMが導入され,テキスト-脳符号化・復号化タスクにおいて優れた有効性を示した.本研究では,このBrainLMをさらに発展させ,新たなデータセットと未知の言語システムに適用することを試みた.転移学習技術を採用することで,多言語学習タスクにおけるモデルの可能性を拡張し,その汎化能力を向上させることを目指した.特に,二値分類タスクの微調整プロセスにおいて,BrainLMは51.75%の最高精度を達成した.本研究では,脳予測タスクに対して転移学習を行う前後のモデルを比較することで,約3%~15%の相関係数の改善を得た.さらに,大脳皮質全体を対象とした脳予測課題では,BrainLMが他のモデルと比較して最も高い相関を示した.本研究は,BrainLMの応用範囲を広げるだけでなく,多様な言語環境における脳機能領域と大規模言語モデルの複雑な相互作用に光を当てるものである.
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。