2018年5月8日火曜日

詳解ディープラーニング

 Tensorflow・Kerasによる時系列データ処理について詳しい本ということで、興味を持ったので、読んでみた。
 偏微分、全微分など基本的な数学の説明が初めのほうに出ている。関連した内容をネットでわかりやすい説明はないか、チェックしながら、読み進めていくといいようだ。
 後半のLSTMのあたりから難しくなってくる。P234の(5.41)式の変形がいまいちわからない。
  f(t)が忘却ゲートの値とし、ef(t):=∂E/∂f(t)           (5.39)
                  =∂E/∂c(t)⦿∂c(t)/∂f(t)    (5.40)
                  =ec(t)⦿c(t-1)        (5.41)

   c(t)=i(t)⦿a(t)+f(t)⦿c(t-1)   (5.42)

注:⦿は要素積を表す

   (5.42)のc(t)をf(t)で微分すれば、確かにc(t-1)になるのだけど、、、
   そういう理解でいいのだろうか?

0 件のコメント:

コメントを投稿