特異値分解のステップ
特異値分解の復習。
特異値分解は、m×n行列Aに対して、下記のように分解する。
・A:m×n
・U:m×nの直行行列
・Σ:m×n
・ :n×nの直行行列
単位ベクトル(左特異ベクトル)、Aの特異値σ、単位ベクトル(右特異ベクトル)
を用いると、下記のようにあらわせる。
Aを分解するために必要な情報はの3つである。これは、
および
をそれぞれ固有分解することで求められる。
1. Vを求める
Uは直行行列なので、となり、打ち消せる。
これは、固有値分解の公式で、Aが
に、Λが
に変わったものとみなすことが出来るので、固有方程式から以下が成立する。
これを解いて、を得る。
Σの特異値をとすると、
となるので、が成立する。
よって、Aの特異値は、
Aの右特異ベクトルVは、の固有ベクトルを単位ベクトルに変換すればよい。
2. U,∑を求める
右特異ベクトルは冒頭の定義式より
より、Uは下記のようにあらわせる。
あるいは、
よって、
3.計算例
例として、 を分解する。
と計算できる。行列式は下記になる。
よって、の固有値は下記になる。
ここで、の固有値は
となるので、右特異ベクトルは、
を計算し、
に関しては、他の固有ベクトルと直交しているという条件から求める。
すなわち、
左特異ベクトルを求め、下記に分解できる。
と
の関係
[tex AA^Tu=λu]とすると、
Av=uと置くと、とみなせる。
深層学習メモ:代表的なCNNアーキテクチャの流れ
ここでは、代表的なCNNのアーキテクチャの進化の流れについて記す。
AlexNet
2012年のILSVRCにおいて、他のアーキテクチャに圧倒的な差をつけて優勝し、深層学習モデルのブームの端緒になったモデル。
引用元:"ImageNet Classification with Deep Convolutional Neural Networks"
全体としては、畳み込み層を5層積み、間にmax poolingをはさみ、最後に全結合層を3層積んで出力を得る。
最適化は、weight decayとモーメンタム付きの確率的勾配降下法で行われている。エラーレートが改善しなくなった時点で、学習率は1/10にしている。
アーキテクチャの特徴としては以下である。
ReLu
勾配消失問題を回避するため、活性化関数としてReLuを使用している。
Local Response Normalization
空間的に同じ位置にある隣接したカーネルマップの出力の値から自身の出力を正規化する手法。近年ではあまり使われていない
Overlapping Pooling
AlexNetでは、Max poolingを用いているが、集約するピクセル領域をわずかにオーバーラップしたものを使用している。
DropOut
DropOutは、学習時に一定の割合でランダムに中間層を外す手法である。過学習を押さえて、より汎化したモデルを作成することが出来る。
ZFnet
2013年の"Visualizing and Understanding Convolutional Networks"で提案されたネットワーク。
CNNの可視化を行ったうえで、AlexNetの次の課題を解決するアプローチをとった。
・第一層のフィルタは極端に高い周波数と低い周波数の情報で成り立っており、その中間の周波数情報がほとんどない。
・第二層の可視化からは、第一層の畳み込みで使用されている4という大きなストライドによって、エイリアシングが発生している。
そこで、この問題を解決するために、下記のアプローチをとった。
1.第一層のフィルタサイズを11×11から7×7に変更
2.ストライドを4から2に変えた。
その結果、AlexNetを超えるパフォーマンスを示した。
アーキテクチャは下記に示すとおりである。
GoogLeNet
2015年のCVPRの"Going Deeper with Convolutions"で提案されたアーキテクチャで、2014年のILSVRCの優勝モデルである。
このモデルの特徴は以下である。
Inception module
Inceptionアーキテクチャの主な考え方は、畳み込みビジョンネットワークの最適な局所スパース構造を、容易に利用できる密なコンポーネントでどのように近似し、カバーできるかを見つけることに基づいている。
具体的には複数の畳み込み層やpooling層から構成されるinception moduleと呼ばれるマイクロネットワークを定義し、これを積み重ねることで一つの大きなCNNを作り上げている。
インセプションモジュールでは、ネットワークを分岐させてサイズの異なる畳み込みを行った後、それらの出力をつなぎ合わせるという処理を行っている。異なるサイズの畳み込みを独立して行っているため、非0のパラメータ数が大きく減ることになる。
(a)のナイーブバージョンのinception moduleはmax poolingを除くと、5×5の畳み込み一つで表現することもできるが、inception moduleを利用することで、はるかに少ないパラメータで同等の表現能力を持つCNNを構築することが出来る。
また、(b)では1×1の畳み込み層を挿入することで、次元削減を行い、さらにパラメータを削減している。
Global Average Pooling(GAP)
従来のモデルでは、畳み込み層の後に全結合層を積むことによって、出力を得る構造になっていたが、この全結合層はパラメータが多く、過学習を起こすことが問題となっていた。
GAPでは、チャネルにわたってaverage poolingをする(すなわち出力は1×1×チャネル数のテンソルとなる)。
GoogLeNetではCNNの畳み込み層の後、全結合層を利用することなくGAPを採用することで最終的な出力を得ることを提案している。
そのため、パラメータ数を大きく削減し、過学習を防ぐことが出来る。
Auxilirary Loss
GoogLeNetの全体像を下記に示す。
出典:
https://arxiv.org/pdf/1409.4842.pdf
途中で分岐しているが、このサブネットワークでもクラス分類をしており、Auxiliary Lossを追加することが行われている。
これにより、ネットワークの中間層に直接誤差を伝搬させることで、勾配消失を防ぐとともにネットワークの正則化を実現している。
Auxiliary Lossを導入することで計算量を抑えることは期待できないが、アンサンブル学習と同様な効果を得られるため、汎化性能の向上は期待できる。
VGGNet
2014年のILSVRCで2位の認識精度を達成したモデルである。
2015年にVery Deep Convolutional Networks for Large-Scale Image RecognitionとしてCVPRにて発表された。
この論文では、CNNの深さがどのように性能に影響するかを研究するため、下記のようなアーキテクチャの設計方針をとった。
・3×3の畳み込みのみを利用する
・同一出力チャネル数の畳み込み層をいくつか重ねた後にmax poolingによる特徴マップを半分に縮小
・max poolingの後の畳み込み層の出力チャネル数を2倍に増加。
この方針でCNNの深さを増加させていくと、コンスタントに精度が改善した。
AlexnetやZFNetで使用されていたLRNは、VGGnetのような深いネットワークではあまり効果がないため、利用されていない。
ResNet
Resiual Networks(ResNet)は、2015年のILSVRCの優勝モデルである。その後、2015年のCVPRでDeep Residual Learning for Image Recognitionとして発表された。
ResNetでは、処理ブロックをショートカットして入力を次段に渡すResidualモジュールを採用したことが特徴である。これによって、誤差逆伝搬時にも勾配が直接下層に伝わっていくことになり、非常に深いネットワークにおいても効率的に学習できるようになった。
Residual module
下記がResidual Moduleのビルディングブロックである。
出典:
https://arxiv.org/pdf/1512.03385.pdf
入力を処理ブロックF(x)への入力経路とスキップして次段に直接入力する経路に分けるため、次段への入力は下記のようになる。
このような構造をIdentity Mappingとも呼ぶ。
上記の左側は、実際に使われているresidual moduleの構造で、出力チャネル64の3×3の畳み込み層が2つ配置されている。
正確にはBatch nomalizationとReLuが配置されている。
右側はbottleneckと呼ばれるもので、1×1の畳み込みで次元削減を行った後に3×3の畳み込みを行い、その後さらに1×1の畳み込みで次元を復元するという形をとることで左側と同等の計算量を保ちながら、より深いモデルを構築することが出来る。
Batch Nomalization
深いネットワークでは、ある層のパラメータ更新によって、その次の層の入力の分布が
バッチごとに大きく変化してい住まう内部共変量シフトが発生し、学習が進まない問題があった。Batch nomalizationでは、この内部共変量シフトを正規化して各レイヤが独立して学習が行えるようにすることで、学習を安定化・高速化する。
Heの初期化
重みの初期化について、ReLuを活性化関数として利用する場合の適切なスケーリングを理論的に導出した。
SENet
Squeeze-and-Excitation Networks(SENet)は2017年のILSVRCの優勝モデルである。
2018年のCVPRにてSqueeze-and-Excitation Networksとして発表された。
特徴は、特徴マップをチャネルごとに適応的に重みづけをするAttentionの機構を導入したことである。これは、SE(Squeeze-Exitation) Blockで実現されている。
SE Block
出典:
https://arxiv.org/pdf/1709.01507.pdf
上記がSE Blockの概念図である。
SE BlockはSqueezeステップとExcitationステップの2段階が行われる。
Squeezeステップではチャネル依存性に取り組むために、グローバルな空間情報をチャネル記述子に”絞り込む"(squeeze)。
具体的には、H×W×Cの特徴マップに対してGlobal Average pooling1を適用する。
次にexitationステップでは、チャネルごとの依存関係を抽出するために、1×1の畳み込みを適用し、ReLuと再度出力チャネル数Cの1×1の畳み込みを経て最後にシグモイド関数を適用し、チャネルごとの重みを出力する。
\*yu4u氏の畳み込みニューラルネットワークの最新研究動向 (〜2017)を参考に自身の勉強のために書いています。
深層学習メモ 強化学習
ベルマン方程式
動的計画法として知られる数的最適化において、最適化の条件を示す式。
状態 x を外部からの入力 u で制御できると考えているときに、ある種の評価 J の下で u を色々変えてみて、いざ評価 J を最も良くするような u が見つかったときに成り立っているべき方程式である。
強化学習については、下記のようにかける。
ここで、
π:ある時点の方策
s:ある時点の状態
s':次の時点の状態
a:ある時点のアクション
γ:時間による割引率
:ある状態である方策を選んだ時の価値関数
:ある状態から方策πに従ってとる行動確率
:ある状態から次の状態への状態遷移確率
:ある状態から次の状態に移る時の報酬
:次の状態での価値関数
つまり、価値関数は、直近の報酬に1ステップ先の価値関数を足したものである。ただし、方策および遷移確率で未来のとりうる値は枝分かれするので、その期待値をとる。
方策勾配法
目的関数J(θ)を最大化する方策パラメータベクトルθを勾配から探索する手法。学習率をαとすると、更新式は下記のようにあらわされる。
方策を学習する目的は、エージェントの行動を最適化して機体リターンを最大化することである。そこで、学習開始時の期待リターンとして、その時点での方策 のもとで計算された価値関数Vなので、これを目的関数J(θ)とする。
この定義をθで微分することで、以下の方策勾配定理を得る。
方策勾配定理
勾配方策定理とは、Q値を用いて、累積報酬を増加させる方策の勾配を求めるための定理である。
J(θ)が平均エピソード長に比例するため、等式ではなく比例関係で結ばれている。
モンテカルロ法
動的行動計画法では、環境のダイナミクスが既知であることが前提となっている。ところが、あらゆる行動に対して起こりうる変化をすべて把握して、それらをすべてモデリング出来るケースは現実には非常に少ない。
そこで、環境のダイナミクスが既知でなくても価値の推定・方策改善を行う手法がモンテカルロ法になる。
強化学習におけるモンテカルロ法では、エピソードに従ってエージェントは行動をとり報酬を得る。各状態で実際に得られた報酬の平均をとることで期待値を計算する。
モンテカルロ法では現在時刻tからエピソード終了までの時間Tまでの報酬の現在価値を求めるので、学習率α、割引率γとして行動状態価値関数は下記のようになる。
状態価値関数は、下記のようにあらわせる。
TD法
TD法では、予測で修正を行う。そのために正確性はモンテカルロ法より劣るが、修正速度は1行動ごとになるので早い。
そのため、tとt+1の差異を求める。
深層学習の学習:指標など
BLEU
機械翻訳の評価指標の一つでBLEUがある。
この評価方法の前提は、「プロの翻訳者の訳と近ければ近いほど、その機械翻訳の精度は高い」という考え方である。
BLEUは0~1の間で表現され、それを100倍したものをBLEUスコアとして用いる。
目安としては40以上なら高品質と言える。
BLUEスコアは、下記のような式で計算される。
ここで、
BLEUでは、機械翻訳が参照翻訳より短い場合は、ペナルティを与え、機械翻訳が参照翻訳より長い場合はペナルティを与えないBP(Brevity penalty)がある。
cを機械翻訳の長さとして、下記のようにあらわされる。
soft plus関数およびsigmoid関数との関係
soft plus関数は、下記のように定義する。
グラフにすると、下記のような形で、ReLu関数に近いが、連続的につながっていて、全域で微分可能であることが特徴である。
sigmoidとsoft plus関数の関係
シグモイドは下記の関数である。
soft plus関数の実装
簡易的には、pythonで下記の実装もありえる。
import numpy as np def softplus(x): return np.log(1.0+np.exp(x))
ただ、x=1000を超えるような数をいれるとオーバーフローをする場合がある。
そこで、下記のような実装の工夫があり得る。
この変形を用いて、
import numpu as np return maximum(x,0)+log(1+np.exp(-np.abs(x)))
情報量とエントロピー
情報量
情報量は、下記の2つの条件を満たすものとして定義する。
1. 発生する確率が低いことが分かった時のほうが情報量が多い
2. 情報量は足し算で増えていく
この条件を満たす情報量を以下のように定義できる。あることが分かった時の「そのことの情報量」を自己情報量と呼ぶ.
平均情報量とエントロピー
ある物事について、どれほど知らないことがあるかという事を表すのが平均情報量である。
この「分からなさ」あるいは「不確実性」を情報エントロピーとも呼ぶ。
平均情報量=情報エントロピー
として定義される。
深層学習の学習 R-CNN
R-CNN(Region-CNN)とは
2014年に発表された一般物体検出の代表的なネットワーク。
元論文は、 Rich feature hierarchies for accurate object detection and semantic segmentation
ディープラーニングの一般物体検出手法の発展をまとめた図が下記のようにGitHubで公開されているが、R-CNNが出発点になっていることが分かる。
R-CNNのプロセス
R-CNNのプロセスは大きく下記のように示せる。
(参考はこちら)
1.対象画像の入力
2.入力画像に対して、物体が映っている領域の候補(region Proposal)をSelective Searchで約2000個抽出し、CNNのインプットの大きさに合うようにそれぞれの領域中の画像をリサイズする。
3.それぞれの領域に対してCNN(Alex Net)で特徴量を計算
4.それぞれの領域に何が映っているのかSVMで分類する
Region Proposal
入力画像からSelective Searchで物体が写っている領域の候補(Region Proposal)矩形を2000こ抽出し、CNNの入力画像とする。Selective Searchによってあらかじめ候補領域を絞り込むことで、高速化を図っている。
CNNの入力サイズは固定のため、Selective Searchで抽出した領域はCNNの入力サイズに合わせてリサイズする。
Selective Search
ピクセルレベルで類似する領域を階層的に結合して一つの物体領域を出力し、そのBBを出力する。
Classify Regions
SVMによって領域を分類する。
R-CNNの課題
R-CNNは深層学習以前の一般物体検出手法に比べて認識精度を大きく向上させたが、時間が非常にかかる。
また、CNN、SVM、BBの回帰とプロセスごとに別々に学習する必要がある。
深層学習の学習:BERT
BERT
BERTとは、2018年にGoogleが発表した自然言語処理用の深層学習モデルである。
- 論文タイトル
BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding
- 投稿日
2018/10/11
- 著者
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
- 概要
- Bidirectional Transformerをユニットにフルモデルで構成したモデル
- 事前学習タスクとして、マスク言語予測タスク、隣接文判定タスクを与える
- BERTからTransfer Lerningを行った結果、8つのタスクでSOTA
- Googleが事前学習済みモデルを公開済み
背景
様々な言語処理タスクにおいて事前学習が有効である。
事前学習には二種類のアプローチがある。
-
- Feature-Based
- Fine-tuning
Feature-Based アプローチ
事前学習したモデルでターゲットの文章を読み込ませ、隠れ層の値(特徴量)を抽出して、ターゲットのタスクモデルに渡すアプローチ。
様々なNLPタスクの素性として利用される。
最近では、ElMoが話題になった。
Fine-tuningアプローチ
言語モデルで事前学習し、それをタスクのモデルで転移学習するアプローチ。
事前学習は、パラメタの初期値として使用される。
Open AI GPT、BERTで使用されており、最近はこちらが注目されている。
BERTの概要
Fine-tuningアプローチの事前学習に工夫を加えている。
具体的には、双方向トランスフォーマーは、よい学習効果をもたらすが、言語モデルの学習においては、従来のモデルでは未来情報のリークを防ぐためのマスクが無いため、採用が難しい。
そのため、事前学習タスクにおいて工夫をする必要があった。
入力表現
3種類のEmbeddingのSumを入力とする。
- Token Embedding: WordPieceでTokenizationしたものをEmbedding
- 単語位置埋め込み:系列長1-512の表現
- 文区別埋め込み:1文目、2分目の区別
事前学習
1. 空欄語予測(Masked Language Modeling (MLM))
- 文章中の単語のうち、15%をMASK対象に選ぶ。選ばれた15%の単語の位置にはフラグを立てておく。
- 選んだ単語のうち、80%を[MASK]に置き換え、10%を他の単語に置き換え、残り10%は置き換えない。
文章を入力としてフラグが点いている位置のオリジナルの入力単語が何であるかを出力する。
- 背景
双方向モデルは、left-to-rightモデルや双方向にconcatしたものより一般に強力である。しかし、双方向だと複数層の文脈から自分を見てしまうため、学習出来ない。
そこで発想を転換し、次の単語ではなく、ランダムに抜かれた単語を予測するモデルにする
一方でこの方法を採用すると、単語全体の15%しか学習に使えないため、学習に時間がかかる。
2.隣接文予測(Next Sentence Prediction(NSP))
2つの文章の関係性理解が重要だが、言語モデルのタスクのみではとらえられないという問題点があった。
そこで、2つの連なる文章のペアに対して、隣接文を50%の確率でシャッフルし、隣接文であるかのT/Fを出力させた。