勉強した論文まとめ



これまでに読んできた論文のまとめです。

論文のモデルを実装してみた系の投稿に内容も書いてあることが多いですが、まとめページを別途作ってみました。

ひとまず、自分が続けやすいよう最低限の内容に留めておいて、新しく読んでいったものは随時追加していきますが、果たしていつまで続くか…。

Ego-Lane Analysis System (ELAS): Dataset and Algorithms

追記(2018-07-15)

論文リンク: https://arxiv.org/abs/1806.05984

概要:

白線認識の研究。

車載画像を道路を上から見た画像に変換(Inverse Perspective Mapping)し、停止線+横断歩道+路上標識クラスのいずれかが写っているかをNormalized Cross-Correlationでクラス推定、画像からクラスを除去して残った直線をハフ変換等で取得。

Road Damage Detection Using Deep Neural Networks with Images Captured Through a Smartphone

追記(2018-07-15)

論文リンク: https://arxiv.org/abs/1801.09454

概要:

これまで道路損傷の有無や損傷種類の分類に対するデータが整備されていなかったため、道路損傷のデータセットを作成した研究。

また、SSD Inception、SSD MobileNetでこれをオブジェクト検出し、それぞれの損傷タイプの推定精度を測定している。

Towards End-to-End Lane Detection: an Instance Segmentation

追記(2018-07-15)

論文リンク: https://arxiv.org/abs/1802.05591

概要:

白線をinstancewiseに高精度で認識するため、binary lane segumentation+pixel embeffing+classification+H-Netでセグメンテーションを解く研究。

binary lane segumentationにE-Net、instancewiseに解くためDiscriminative Loss Function、カーブのフィッティングにH-Netを利用している。

Accuracyは96.4%で、tuSimple Charangeで4位の成績。

Superpixel clustering with deep features for unsupervised road segmentation

追記(2018-05-19)

論文リンク: https://arxiv.org/abs/1711.05998

概要:

車載画像の学習済みのDilated ResNetの特徴量マップと、画像のスーパーピクセルを合成して、事前情報を考慮したK-meansによる分類を行うことで、車載画像において、道路箇所を教師なしセグメンテーションする研究。

Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization

追記(2018-05-19)

論文リンク: https://arxiv.org/abs/1610.02391

概要:

CNNにおけるクラス分類の判定に与える影響が大きい画像箇所を可視化する手法。

クラスごとの確率スコア(softmax出力値)への影響が大きい画像箇所を、畳み込み層による特徴量マップの微分係数の大きさで特定する。

End to End Learning for Self-Driving Cars

追記(2018-05-19)

論文リンク: https://arxiv.org/abs/1604.07316

概要:

車載カメラ画像からステアリングホイールの操舵角を予測する自動運転用モデルの提案。

入力する車載画像も、ノイズが多い背景部分は除いて道路部分のみを切り取って入力している。

Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1506.02142

概要:

Dropoutを適用させた深層学習は、deep gaussian modelにおける変分ベイズ推論となる事を理論的に示している。

重みの事後分布を得ることができ、これを用いてラベルの予測分布が得られる。

これにより深層学習では明示できていなかった「予測の不確かさ」を定量化することができる。

このブログで関連のある投稿:

Dropoutによる近似ベイズ推論について
(adsbygoogle = window.adsbygoogle || ).push({});割と今更ですが、深層学習において、汎化性能を保つための工夫の一つであるDropoutを使って推論を行うことが、近似的にベイズ推論になっているという論文がありますので、それについて記します。また、実際に試験的...

Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1704.07911v1

概要:

PilotNetは車載カメラ画像からステアリングホイールの操舵角を予測する自動運転用モデル。

PilotNet: https://arxiv.org/abs/1604.07316v1

学習したPilotNetのConv層の重みを可視化することで、画像中のステアリングホイール操作に影響のある部分の可視化(visual mask)を得ようという試み。

各Conv層をchannel平均をとり、 w=1, b=0 で固定したDeconv層で拡大してPointwiseでかけることで、どのConv層でも反応した特徴量次元を可視化するという仕組み。

Deep Steering: Learning End-to-End Driving Model from Spatial and Temporal Visual Cues

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1708.03798v1

概要:

画像から直接自動運転操作を予測するようなモデル研究において、時間的な要素を入力に加えるようなネットワークアーキテクチャを提案。

他の先行モデル(PilotNet etc.)との性能比較やVisual back-propagationによる可視化を実証。

Capsules for Object Segmentation

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1804.04241

概要:

医療画像向けのセグメンテーションモデルであるU-Netの精度を超えるセグメンテーションモデル(SegCaps)を提案。

Deep Reinforcement Learning with Double Q-learning

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1509.06461

概要:

DQNでは、行動を選択する Q のパラメータと行動価値の評価に使う Q のパラメータが同じであり、結果として行動価値を過大評価してしまい、ネットワークが発散することがあるという問題があった。

そこで、2つの Q 関数を混ぜてパラメータを交互に学習をさせることで過大評価を抑え、学習を安定化させたという研究。

このブログで関連のある投稿:

PyTorchで深層強化学習(DQN、DoubleDQN)を実装してみた
(adsbygoogle = window.adsbygoogle || ).push({});以前に勉強したDeep Q-Network(DQN)を、やっぱり離散的な状態を返す簡単なゲームでなく、連続的な状態のゲームにも適用してみたいと思い、久しぶりにまた勉強しました。最近の深層強化学習の研究を見てみたところ...

Dueling Network Architectures for Deep Reinforcement Learning

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1511.06581

概要:

DQNでは、Q 関数に対して、1回の更新で、1つの状態に対する1つの行動しか更新できなかった。

そこで Q 関数を状態価値関数 V(s) とAdvantage(行動優位)関数 A(s,a) に分解して学習させた。

V については毎回更新ができるので、TD誤差の計算の伝播が早くなり、学習が早く収束ができた。

このブログで関連のある投稿:

PyTorchで深層強化学習(DQN、DoubleDQN)を実装してみた
(adsbygoogle = window.adsbygoogle || ).push({});以前に勉強したDeep Q-Network(DQN)を、やっぱり離散的な状態を返す簡単なゲームでなく、連続的な状態のゲームにも適用してみたいと思い、久しぶりにまた勉強しました。最近の深層強化学習の研究を見てみたところ...

Prioritized Experience Replay

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1511.05952

概要:

DQNなどにおいて、経験をランダムに選んで学習している部分を、より学習に役立つ経験を優先して学習させるようにした研究。

経験の重要性をTD誤差の絶対値を用いて表し、これを用いて確率とした上で、経験サンプリングを行うことを提案。

このブログで関連のある投稿:

PyTorchで深層強化学習(DQN、DoubleDQN)を実装してみた
(adsbygoogle = window.adsbygoogle || ).push({});以前に勉強したDeep Q-Network(DQN)を、やっぱり離散的な状態を返す簡単なゲームでなく、連続的な状態のゲームにも適用してみたいと思い、久しぶりにまた勉強しました。最近の深層強化学習の研究を見てみたところ...

Massively Parallel Methods for Deep Reinforcement Learning

論文リンク: https://arxiv.org/abs/1507.04296

概要:

DQNなどにおいて、Memory(経験)を集めるActorと、誤差計算を行うLearnerに分けて、並列処理をするアーキテクチャ(GOogle ReInforcement Learning Architecture; Gorila)を提案。

このブログで関連のある投稿:

PyTorchで深層強化学習(DQN、DoubleDQN)を実装してみた
(adsbygoogle = window.adsbygoogle || ).push({});以前に勉強したDeep Q-Network(DQN)を、やっぱり離散的な状態を返す簡単なゲームでなく、連続的な状態のゲームにも適用してみたいと思い、久しぶりにまた勉強しました。最近の深層強化学習の研究を見てみたところ...

Asynchronous Methods for Deep Reinforcement Learning

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1602.01783

概要:

CPUのマルチスレッドで同時に複数のエージェントを並列で走らせ、パラメータを非同期に更新。

強化学習はActor-Criticをベースとし、 k ステップ先までの報酬を考慮した推定値(Advantage)を使ってパラメータを更新。

これにより、現在の状態価値が、より確からしい推定値となって、学習が早く進み、DQN(GPU)よりも早く学習できた。

このブログで関連のある投稿:

PyTorchで深層強化学習(DQN、DoubleDQN)を実装してみた
(adsbygoogle = window.adsbygoogle || ).push({});以前に勉強したDeep Q-Network(DQN)を、やっぱり離散的な状態を返す簡単なゲームでなく、連続的な状態のゲームにも適用してみたいと思い、久しぶりにまた勉強しました。最近の深層強化学習の研究を見てみたところ...

Sequence to Sequence Learning with Neural Networks

追記(2018-05-13)

論文リンク: https://arxiv.org/abs/1409.3215

概要:

LSTMを使った2つのネットワーク、エンコーダー・デコーダーを用意する。

エンコーダーが読み込んだ系列のメモリ状態から、デコーダーがその後に続く系列を予測するようなネットワークアーキテクチャを提案。

論文では、機械翻訳モデルとして学習させ、原文から翻訳文の予測を実験している。

このブログで関連のある投稿:

Attention Seq2Seqで対話モデルを実装してみた
(adsbygoogle = window.adsbygoogle || ).push({});MLPシリーズの「深層学習による自然言語処理」を読みました。深層学習による自然言語処理 (機械学習プロフェッショナルシリーズ)posted with ヨメレバ坪井 祐太,海野 裕也,鈴木 潤 講談社 2017-05-25 Amazon楽天...