Bi-LSTM学習におけるバッチごとの系列長調整について



まただいぶ更新期間が空いてしまいました。

今回は、表題の通り、深層学習でのBi-LSTMなどの系列学習において、バッチごとに系列長を調整できるようにしてみます。

例えば、Kaggleのカーネルコンペなどで、自然言語の分類をLSTMなどで学習させる場合、バッチごとに系列長を調整する方が、学習精度・実行時間短縮に効果があるようです。

実際にどのように書いて、どのくらい速度に違いが出るか、Kerasで比較してみようと思います。

今はTransformerだろとかBERTだろとか言われそうな気もしますが、そうでもないよ的な論文もちらほら出ていて、色々と決着がついてなさそうですし、一旦無視していきます。

データは、以下のKaggleのデータセットを使います。

https://www.kaggle.com/mousehead/songlyrics

Kaggleのカーネルで実験しましたので、コードはカーネルでも公開しています。

タスクと普通の学習コード

まずは解くタスクと、普通に学習させる場合のコードで学習させてみます。

データセットは、アーティスト(歌手)と曲名と歌詞の文章データセットになっています。

今回はこれを使って、歌詞からアーティストを予測できるか学習させてみます。

といっても、本来の目的は、バッチごとの系列長調整の比較ですので、精度の追求はしません。

早速コードを書いていきます。

定数パラメータは以下のようにします。

データセットを読み込んで、以下のように加工します。

全データには、曲が一つしかないアーティストなどもたくさん入ってきて、クラス数が多すぎになってしまいますので、上記のように180曲以上出している有名アーティスト20クラスで分類してみます。

ちなみに私は音楽詳しくないので、そんなに曲を出しているアーティスト名を確認してみてもさっぱりだったりします←

しかし単純に、およそ200曲分の歌詞で20人分のアーティストをちゃんと分類を学習できるのか、これもこれで興味があります。

単語埋め込みベクトルの取得部分 build_matrix は以下のようにGloveの単語埋め込みベクトルを使うようにしました。

できる限り埋め込みベクトルにある単語になるよう合わせて、それでもなければランダムなベクトルを利用するといったスタイルです。

さて、モデルを以下のように適当に組んでみます。

Bi-LSTMで文章系列の隠れ層を学習して、分類するモデルを作りました。

単純なKerasのやり方でEPOCH分学習させてみます。

まだまだ学習できそうな雰囲気ですね。

というか学習できるんですね。

やはりアーティストによって、歌詞に使われる文章に傾向はあるみたいです。

歌詞は上記の通り、歌詞の1,000単語系列分を使って、長さが足りない部分は前ゼロパディングしています。

この系列長で、10エポック分を上記モデルで学習させて、34秒かかるみたいです。(カーネルのGPU利用)

バッチごとに系列長を調整する学習コード

さて、同じ問題を今度はバッチごとに系列長を調整して学習させてみます。

やりたいこととしては、MAX_LEN は固定して全データでそれよりも長い文章は切ってしまうとし、さらにバッチごとでは、系列データの長さの95%点の長さに切ってしまって、学習をさせます。

結果、全てが MAX_LEN の長さでエンコーダーに入力して学習させていたところを、 MAX_LEN まで必要のないバッチに関しては、無駄にゼロパディングが入っていた部分をカットしてエンコーダーに入力させられるようになります。

これをやるためには、以下のようにバッチイテレーターを作成する必要があります。

data_generator でバッチサイズ分のX,yを取得して返すようにしていますが、その途中、95%点の長さで切るというのを、

でやっています。

前にゼロパディングしているから、前から切っている点注意です。

Kerasの fit 関数では、適宜バッチサイズへの分割をしてくれますが、今回のように自分で作成したものを使う時は fit_generator 関数を使います。

学習のコードが以下。

おお、はや。

ほぼ同じ精度を出しながら、普通に学習させた時の半分の速さでエポック数回すことができました。

概ね、ゼロパディング読み込みの有無の違いなだけな気はするものの、ここまで早くなるものなのか。

まとめ

バッチごとの系列長の調整のありなしでの学習速度の比較を行ってみました。

上記結果のように、精度を保ちながら学習速度を大幅に減らせることが確認できました。

実は最初は MAX_LEN も全データで一番長いものにしてしまって、それで比較できたらと思ったんですが、普通の学習の方がGPUメモリオーバーしてしまいました。(ですよねー)

なので、一番長いデータが含まれた状態のバッチがGPUメモリに乗るのなら、MAX_LEN を全データで一番長いものにしてしまって、系列情報を無駄なく食わせて学習させることもできるかもしれません。



“Bi-LSTM学習におけるバッチごとの系列長調整について” への 0 件のフィードバック

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です