日本地球惑星科学連合2018年大会

講演情報

[JJ] 口頭発表

セッション記号 S (固体地球科学) » S-SS 地震学

[S-SS14] 強震動・地震災害

2018年5月21日(月) 09:00 〜 10:30 A10 (東京ベイ幕張ホール)

コンビーナ:栗山 雅之(一般財団法人 電力中央研究所 地球工学研究所 地震工学領域)、座長:内藤 昌平横田 崇

09:45 〜 10:00

[SSS14-04] 熊本地震における航空写真画像を用いた機械学習による建物被害判別手法の開発

*内藤 昌平1友澤 弘充3森 悠史3永田 毅3三橋 喜一3山田 哲也2下村 博之2門馬 直一2中村 洋光1藤原 広行1 (1.防災科学技術研究所、2.株式会社パスコ、3.みずほ情報総研株式会社)

キーワード:深層学習、サポートベクターマシン、機械学習、航空写真、建物被害、熊本地震

防災科研では、災害発生直後の意思決定支援等に資することを目的としてリアルタイム被害推定・状況把握システムの開発を進めている。地震発生直後の被害状況把握手段として航空機を活用した画像取得は即時性および広域性の両面において有効である。一方で、被害状況の判別は目視によって行われるため、南海トラフ沿いの地震で想定されているような広域な被害が発生した場合、このような人海戦術による判別は困難な状況になると予想される。そこで本研究では、発災直後の航空写真を用いた機械学習による建物被害の自動判別手法の開発を行う。

まず、2016年熊本地震本震直後の4/19に益城町、熊本市東区、西原村等の被害集中域において撮影された垂直オルソ画像を取得した。次に、これらの画像を用いて目視判読により建物被害を4つに区分した後、国土地理院の基盤地図情報(建築物)ポリゴンを用いて被害区分や建物属性等を入力したGISデータを作成した。さらにこれらのデータを用いて各被害レベルが概ね2,500棟ずつ含まれるように計10,000棟以上の建物画像を抽出するとともに、被害区分毎にポリゴンを色分けしたマスク画像を作成し、これらを機械学習用の訓練データとした。
機械学習は「(1)画像内の特徴量を算出後、Support Vector Machine (SVM)を用いた分類を行う方法」、「(2)画像から抽出したパッチを用いてConvolutional Neural Network (CNN)による深層学習を行う方法」の2通りの手法を開発した。
(1)の方法では画像特徴量として画像の回転、スケールおよび照明の変化に頑健なSIFTを採用した。まず画像内をラスタスキャンし、各パッチ画像から抽出した特徴点毎に2つの異なる半径のSIFT記述子を計算した計256次元のベクトル列を1次特徴量とした。次に、各特徴ベクトルをk-meansクラスタリングにより1,000個のクラスタ重心に分割し、最近傍クラスタの出現頻度をパッチ画像毎に集計したヒストグラムを作成することで2次特徴量を算定した(Bag of Visual Words)。これらの2次特徴量を用いてRBFカーネルを使用した非線形SVMのパラメータを調整することにより、各建物被害レベルの分類に最適な識別境界を定めた。
(2)の方法では画像認識分野で実績があるVGG(K.Simonyan et.al, 2015)を参考にしたCNNを構築した。CNNとは画像のフィルタリングを行う畳み込み層、圧縮を行うプーリング層を多数組み合わせることで特徴抽出を行い、最終層の判別結果と正解値との誤差が最小になるように活性化関数(ReLU)を通した各層の出力を調整し、重み、バイアスを誤差逆伝搬法により最適化していくという手法である。本研究ではこれに加えて学習データのシャッフル、ミニバッチの順番変更、Batch Normalization、Drop Out等の処理を追加することにより学習破綻を防止し、識別性能を向上させた。
本研究では被害大の建物の割合が最も大きい益城町役場周辺の1枚の航空写真画像(1.5×2km、20cm解像度)を対象とし、(1)の方法においては64pixel四方のパッチ画像毎に画像全体をラスタスキャンし5クラス(非建物/被害無/被害小/被害中/被害大)の分類を行い、(2)の方法においては5クラスそれぞれにおいて2,500個ずつ切り出した80pixel四方のパッチ画像を用いて学習を行った。その結果、10分割交差検証法による各クラス識別精度の平均値は(1)の場合で約74%、(2)の場合で約92%となり、深層学習手法を用いた判別において精度面での優位性を確認することができた。また、いずれの判別方法においても合計約3,300棟の建物が写っている画像内全域に対してパッチ画像毎の被害判別を実施しており、(1)の場合ではCPUを用いて、(2)の場合ではGPUによりそれぞれ計算を行った結果、いずれも計算時間が10分以内であることから、目視判読による被害区分(平均して1人日で1,000棟程度)と比較して優れた迅速性を確認することができた。
なお、災害対応の上では被害集中領域の分布だけでなく実被害の数量を可能な限り早く把握することが望ましい。そのため、本研究では建物ポリゴン内に含まれるパッチ画像毎の被害判別結果の割合に応じた閾値を設定することにより建物単位の被害判別を行い、被害棟数を集計する手法を開発中である。具体的な閾値設定に基づく建物単位の被害区分の判別精度については本発表内で説明する。
謝辞:本研究は戦略的イノベーション創造プログラム(SIP)「レジリエントな防災・減災機能の強化」によって実施された。