๐ ๊ฐ์ ์ ๋ฆฌ
* Coursera ๊ฐ์ ์ค Andrew Ng ๊ต์๋์ Sequence Models ๊ฐ์๋ฅผ ๊ณต๋ถํ๊ณ ์ ๋ฆฌํ ๋ด์ฉ์ ๋๋ค.
* ์ด๋ฏธ์ง ์ถ์ฒ : Deeplearning.AI
Recurrent Neural Networks
1. Why Sequence Models?
2. Notation
์ด์ ๊ณผ ๋์ผํ๊ฒ i๋ฒ์งธ example์ ๋ํด (i)๋ก ํํํ๊ณ x_(i)์์ ์ํ์ค๋ฅผ ๋ํ๋ด๊ธฐ ์ํ ๋ฐฉ๋ฒ์ผ๋ก <t>๋ฅผ ์ฌ์ฉ
10K๊ฐ์ ๋จ์ด๊ฐ ์๋ ์ฌ์ ์ด ์๋ค๊ณ ํ ๋, ๊ฐ ๋จ์ด์ ์์น๋ฅผ 1๋ง ์ฐจ์ shape์ ์ํซ ๋ฒกํฐ๋ก ํํ
3. Recurrent Neural Network Model
๋ฌธ์ฅ์ ์ผ๋ฐ ์ ๊ฒฝ๋ง์ผ๋ก ํ์ตํ์ง ๋ชปํ๋ ์ด์ ๋ ์ธํ๊ณผ ์์ํ์ ํฌ๊ธฐ๊ฐ ์ผ์ ํ์ง ์๊ณ , ํ ๋จ์ด์ ์ค์๋๊ฐ ๋ฌธ์ฅ๋ง๋ค ๋ค๋ฅด๊ธฐ ๋๋ฌธ์ ํน์ง์ ๋ฝ๊ธฐ ์ด๋ ต๋ค๋ ์ ์ ๋๋ค.
์ํ์ ๊ฒฝ๋ง์ ๋ค์ด์ด๊ทธ๋จ์ผ๋ก ํํํ๋ฉด ์๋์ ๊ฐ๋ค. ๋ณดํต ์ค๋ฅธ์ชฝ(2๋ฒ)๊ณผ ๊ฐ์ด ํ๊ธฐํ์ง๋ง ์ผ์ชฝ(1๋ฒ)์ด ๋ ์ง๊ด์ ์ผ๋ก ์ดํดํ๊ธฐ ์ฝ๋ค. ๋ฌธ์ฅ์์ ํ ๋จ์ด(x_t)์ฉ ์ ๊ฒฝ๋ง์ ์ธํ์ผ๋ก ๋ฃ๋๋ฐ ๊ทธ ์ ๋จ๊ณ์ ๊ฒฐ๊ณผ(a_t)๋ฅผ ํจ๊ป ๋ฃ์ด์ค๋ค.
์ด์ ์ ๊ฐ์ ๋ฃ์ด์ค์ผ๋ก์จ y_<3>๋ฅผ ๊ตฌํ๋ ๊ณผ์ ์ x_<1>, x_<2>, x_<3>๊ฐ ๋ชจ๋ ์ํฅ์ ์ฃผ๊ฒ ๋๋ค.
์ฌ๊ธฐ์(RNN) ๋ฌธ์ ์ ์ x_<1>, x_<2>, x_<3> ๋ y_<3>์ ์ํฅ์ ์ฃผ์ง๋ง x_<4>, x_<5> ๋ฑ์ ๋ค์ ์๋ ๋จ์ด๋ค์ ๊ณ ๋ คํ์ง ๋ชปํ๋ค๋ ์ ์ด๋ค. ์๋ Teddy ์์ ๋ฅผ ๋ณด๋ฉด ์์ ์ ๋ณด๋ก๋ง Teddy๊ฐ ๊ณฐ์ธํ์ธ์ง ๋ํต๋ น์ธ์ง ์ ์ ์๋ค.
์์ ๊ณผ์ ์ ๊น๋ํ๊ฒ ํํํ๊ณ a์ y์ ๋ํ ์์ธํ ์์ ๊ตฌํ๋ฉด ๋ค์๊ณผ ๊ฐ๋ค.
์ด๋ฅผ ๋ ๊ฐ๋จํ๊ฒ ํํํด๋ณด๋ฉด ์๋์ ๊ฐ๋ค. a์ x๋ฅผ ์์์ ๋ฌถ์์ผ๋ก ํํํ๋ ๊ฒ์ด๋ค.
4. Backpropagation through time
logistic regression loss ๋ฐฉ๋ฒ ์ค Cross entropy๋ฅผ ์ฌ์ฉํ backpropagation ๊ณผ์ ์ ๋ํ๋ธ ๊ฒ์ด๋ค.
RNN์ ์ฃผ์ motivation์ input sequence์ ๊ธธ์ด์ output sequence์ ๊ธธ์ด๊ฐ ๊ฐ๋ค๋ ์ (Tx == Ty)์ด๋ค.
5. Different Types of RNNS
RNN์๋ Tx = Ty์ธ many-to-many ์ผ์ด์ค๋ ์๊ณ Tx != Ty์ธ many-to-one ์ผ์ด์ค๋ ์๋ค. ์ ์์ ์์๋ก๋ ์ธ์ด ๋ฒ์ญํ๋ ๊ฒฝ์ฐ๊ฐ ์๊ณ , ํ์ ์์๋ก๋ ์ํ ํ๋ก ์ ํ์ ์ผ๋ก ๋ณํํ๋ ๊ฒฝ์ฐ๊ฐ ์๋ค.
์ด ๋ฟ๋ง ์๋๋ผ one-to-one, one-to-many ๋ฑ๋ฑ ์๋์ ๊ฐ์ ๋ค์ํ ์ข ๋ฅ์ RNN์ด ์กด์ฌํ๋ค.
6. Language Model and Sequence Generation
๋๊ธ