16:10 〜 16:30
[2J5-GS-2-02] 償却推論にもとづいた継続学習
キーワード:継続学習、ニューラル過程
継続学習において,逐次的に複数のタスクを学習した際に過去のタスクの精度が著しく下がる破滅的忘却を防ぎながら,かつタスクの増加に対応できる手法の研究が盛んに行われている.本研究では,過去のタスクのネットワークの保存,訓練データを追加した学習を行うことのない新たな手法として,Neural Processの構造を基にしたAmortized Continual Learning Model(CALM)を提案する.CALMはタスク固有の重みを算出するTask Weight Encoder(TE)および入力データの特徴量抽出を行うFeature Extractor(FE)の2つのニューラルネットから構成される.入力画像の特徴量にタスク固有の重みを適用することで,全タスクで共通のネットワークを用いながら,タスク固有の出力を可能とする.実験ではSplit-MNISTのタスク増分学習に取り組み,提案手法を用いた際に逐次的に学習した場合もタスクの精度が保たれることを検証した.
講演PDFパスワード認証
論文PDFの閲覧にはログインが必要です。参加登録者の方は「参加者用ログイン」画面からログインしてください。あるいは論文PDF閲覧用のパスワードを以下にご入力ください。