ベイジアンニューラルネットワークで毒キノコ分類を実装してみた



最近勉強中のEdwardを使って、ベイジアンニューラルネットワークを実装してみました。

公式ページには、ちょっとした参考程度にしかコードが書いてなくて、自信はありませんが、とりあえず学習はしてくれたようです。

ちなみに今回は、データをKaggleのデータセットで行い、実装もKaggleのkernelを使ってみました。

Bayesian Neural Network with Edward: https://www.kaggle.com/itoeiji/bayesian-neural-network-with-edward

Kaggleのkernel環境のDockerファイルなどを確認してみましたが、ほとんどのPythonのライブラリが入っていて、今回のEdwardも含まれていました。

今回はテスト的に実装してみたかったし、データも軽いものでしたので、kernel上でそのまま実行して投稿してみています。

ベイズ推論

ベイズ推論では、観測データの集合 \mathcal{D} と未知のパラメータ \theta に関して、モデル p(\mathcal{D},\theta)=p(\mathcal{D}|\theta)p(\theta) を構築し、事後分布

    \[p(\theta|\mathcal{D})=\frac{p(\mathcal{D}|\theta)p(\theta)}{p(\mathcal{D})}=\frac{p(\mathcal{D}|\theta)p(\theta)}{{\int}p(\mathcal{D}|\theta)p(\theta)d\theta}\]

を解析的または近似的に求めます。

モデルの構築において、自然共益事前分布を仮定すれば、事後分布は解析的に求まりますが、そうでない場合は、 {\int}p(\mathcal{D}|\theta)p(\theta)d\theta の計算がとても困難なものになるため、代わりにマルコフ連鎖モンテカルロ法変分推論を使って、近似的に事後分布を求めます。

マルコフ連鎖モンテカルロ法(Markov Chain Monte Carlo; MCMC)では、 \theta_i{\sim}p(\theta|\mathcal{D}) を大量に得て(サンプリング)、平均や分散を求めてみたり、プロットしてみたりして、分布の外観を把握します。

変分推論(Variational Inference)(または変分近似(Variational Approximation))では、解析しやすい分布 q({\theta};\eta) を考え、p(\theta|\mathcal{D}){\approx}q({\theta};\eta) と近似します。

言い換えると、目的関数 \arg\min_{\eta}KL(q({\theta};\eta}){\parallel}p(\theta|\mathcal{D})) の最小化問題を解くことになります。

実際にどのようにしてサンプリングや近似をさせるのかといった話は、今回に関してはEdwardがライブラリとしてやってくれる話なので、省略します。(というか勉強中です…)

書籍としては、最近出版されたものとしては、下記などが参考になると思います。

上記書籍はサンプルコードもGitHubに上がっています。(ただし、juliaです笑)

https://github.com/sammy-suyama/BayesBook

ベイジアンニューラルネットワーク

ベイジアンニューラルネットワークでは、ニューラルネットワークのパラメータ \boldsymbol{w} (重みとバイアス)が、ある確率分布に従うと仮定し、その事後分布をベイズ推論により求めます。

    \[\boldsymbol{w}{\sim}\mathcal{N}(\boldsymbol{0}, \boldsymbol{\text{I}})\]

    \[p(y|\boldsymbol{x},\boldsymbol{w})=\text{Categorical}\left(\frac{\exp(f(\boldsymbol{x},\boldsymbol{w}))}{\Sigma\exp(f(\boldsymbol{x},\boldsymbol{w}))}\right)\]

(ここでいう f({\cdot}) は活性化関数などを表します)

ニューラルネットワークにベイジアンを適用する話は、歴史的には結構古くからあったようで、メリットやデメリットとしては下記のように、やはりベイズ推論で一般的によく言われることと同等のことが言えるようです。

メリット デメリット
・ 少ない学習データで学習が可能
・ 過学習が抑えられる(というか過学習という概念がない)
・ 計算量が多い
・ 再現性がない場合がある

Edward

Edwardはベイズ統計などで扱うような確率モデルを実装できるライブラリです。

同じPythonのライブラリで言えば、PyStanやPyMCがその類のものになります。

Edward: http://edwardlib.org/

特徴としては、

  • 2016年より開発されている確率的プログラミングのPythonライブラリ
  • Dustin Tran氏(Open AI)が開発をリード
  • LDAで有名なコロンビア大学のBlei先生の研究室で開発
  • 計算にTensorFlowを用いている
  • 計算速度がStanやPyMC3よりも速い
  • GPUによる高速化が可能
  • TensorBoardによる可視化も可能

などが挙げられます。

ベイズ統計はもちろんですが、深層学習などに対するベイズの適用の実装も可能のようです。

この辺りについてはチュートリアルに色々と参考例があり、例えば、下記のようなアルゴリズムの実装が可能のようです。

また、現段階において、TensorFlowにマージされる予定のようです。

参考: https://discourse.edwardlib.org/t/edward-is-officially-moving-into-tensorflow/387

ちなみにこの「Edward」という名前については、統計学者のGeorge Edward Pelham Boxから取っているようです。

Box-Cox変換やLjung-Box検定のBoxだったかと思います。

Edwardの使い方

EdwardはバックエンドにTensorFlowを用いており、使い勝手もTensorFlowと同様に、計算グラフを作成、セッションを宣言、値をフローという流れで使用します。

テンソルで処理できるため、一気に値をベクトル生成することも可能です。

パラメータの事前分布を指定する場合も、以下のようにPythonっぽく書けます。

この辺りはStanなどよりもPyMCと似ています。

もちろん計算グラフなので、プレースホルダーを用いて、値を供給して生成することもできます。

パラメータの事後分布を求める場合には、変分推論かMCMC法が使えます。

今回扱うデータについて

上記説明の通り、Kaggleのデータセットページからkernelを作成して実装しています。

https://www.kaggle.com/itoeiji/bayesian-neural-network-with-edward

今回は食用キノコと毒キノコの分類用データセットです。

mushrooms.csvを見てみると下記のようになっています。

一番左のclass列がpが毒(poisson)、eが食用(eatable)となっているようです。

カラムは全てオブジェクト型のようなので、ダミー変数化しておきます。

カラムが目的変数分の2カラムを引いて、117カラムあるようなので、これを全て説明変数ベクトルとして与えて、ニューラルネットワークを解いてみます。

ベイジアンニューラルネットワークの実装

まずは教師データを準備します。

上記のように、class_pclass_eはラベルデータで、残りを入力データとします。

まずは簡単に比較のため、隠れ層のない単純なニューラルネットワークを、TensorFlowで構築して、学習させてみます。

問題なく学習できているようです。

どうでも良いですが、validationvaridationと綴を間違っていました。(この後のコードも間違ったままですが、目を瞑ってください)

次に、ベイジアンニューラルネットワークをEdwardで構築して、学習させてみます。

こちらも学習できたようです。

注意する点としては、仮定した分布を使って予測する計算グラフ y_pre とラベルデータ y_ が一致するよう inference で設定する点と、精度確認のための、近似させた分布を使って予測する計算グラフ y を用意しておくところなどでしょうか。

また、各ニューロンが確率分布になるので、同じデータを x_ に与えたとしても、予測結果 y は当然確率によって値が変動します。

そのため、精度を確認する際には、ある程度、同じデータを与えてサンプリングを行い、どちらのラベルである確率が高いかを見て判断させています。

がその箇所になります。

一応これで何かしら精度が上がったことが確認できました。

ニューラルネットワークと同様にエポックを回してみましたが、序盤から割りと精度が高く、むしろエポックを重ねて精度が上がるかというと、そうでもないし、ベイジアン的に考えたら、あまり意味がないようにも思いますが、実際どうなのでしょうか。

さらに興味がある点としては、今回は隠れ層なしでしたけども、隠れ層を入れた場合には、同じような作りで良いのかも気になるところです。

動かしてみたら、返って謎が深まってしまった感じがしますが、今回はひとまず、ここまでとしておきます。



 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です