๐ฟ Data
[TIL] 81. Section4 Sprint2
์์ฐ์ด์ฒ๋ฆฌ(Natural Language Processing)์ ๋ํด์ ๋ฐฐ์ ๋ ์คํ๋ฆฐํธ ์ถํ์ ๋ฅ๋ฌ๋ ํํธ์ ๋ํด ๋ ๊ณต๋ถํ๊ฒ ๋๋ค๋ฉด ๊ฐ์ฅ ๊ด์ฌ ๊ฐ๋ ๋ถ์ผ์ฌ์ ๋ง์ด ๊ธฐ๋ํ๋ ์คํ๋ฆฐํธ์ด๊ธฐ๋ ํ๋ค. :) - ์์ฐ์ด ์ฒ๋ฆฌ๋ก ํ ์ ์๋ ์ผ๋ค ๋ถ๋ฅ, ๋ฒ์ญ, ์์ฝ, ์ฑ๋ด, ์ด๋ฏธ์ง ์บก์ ๋ฑ๋ฑ - ํ ์คํธ์ ๋ํ ์ ์ฒ๋ฆฌ ๊ณผ์ ๋ด์ฅ๋ฉ์๋ ์ด์ฉ, ์ ๊ท ํํ์, ๋ถ์ฉ์ด ์ฒ๋ฆฌ, ํต๊ณ์ ํธ๋ฆฌ๋ฐ, ์ด๊ฐ/ํ์ ์ด ์ถ์ถ - ํ ์คํธ์ ๋ฒกํฐํ(์ปดํจํฐ๊ฐ ์ดํดํ๊ธฐ ์ข๊ฒ) ํ์ซ ๊ธฐ๋ฐ ๋จ์ด ํํ(TF, TF-IDF) ๋ถํฌ ๊ธฐ๋ฐ ๋จ์ด ํํ(Word2Vec) (์๋ฒ ๋ฉ ๋ฐฉ๋ฒ ์ค ํ๋) - ์์ฐ์ด ๋ชจ๋ธ๋ง with ์ํ ์ ๊ฒฝ๋ง(RNN) ์ฐ์ํ ๋ฐ์ดํฐ(sequential data), ๋ณ๋ ฌํ ๋ถ๊ฐ/๊ธฐ์ธ๊ธฐ ์์ค(์ฅ๊ธฐ ์์กด์ฑ ๋ฌธ์ ) LSTM, GRU ๋ฑ์ฅ, A..
[TIL] 80. Transformer
Transformer ๊ธฐ๊ณ ๋ฒ์ญ์ ์ํ ์๋ก์ด ๋ชจ๋ธ Attention ๋ฉ์ปค๋์ฆ์ ๊ทน๋ํํ ๋ชจ๋ธ ๊ตฌ์กฐ์ ๋จ์ด๊ฐ ์์ฐจ์ ์ผ๋ก ๋ค์ด์ค๋ RNN ๋ชจ๋ธ์ ๋จ์ ์ ํด๊ฒฐํ๊ธฐ ์ํด ๋ฑ์ฅํ ๋ชจ๋ธ ๋ชจ๋ ํ ํฐ(๋จ์ด)๋ฅผ ๋์์ ์ ๋ ฅ๋ฐ์ ๋ณ๋ ฌ ์ฒ๋ฆฌํ๊ธฐ๋๋ฌธ์ GPU ์ฐ์ฐ์ ์ต์ ํ(์๊ฐ์ด ๋น ๋ฆ) 2017๋ ๊ตฌ๊ธ์ด ๋ฐํํ "Attention is all you need"์์ ๋ฑ์ฅํ ๋ชจ๋ธ ๊ธฐ์กด์ seq2seq์ ๊ตฌ์กฐ์ธ ์ธ์ฝ๋-๋์ฝ๋ ๊ตฌ์กฐ๋ฅผ ๋ฐ๋ฅด๋ฉด์ RNN์ ์ฌ์ฉํ์ง ์๊ณ Attention๋ง์ผ๋ก ๊ตฌํํ ๋ชจ๋ธ Positional Encoding(์์น ์ธ์ฝ๋ฉ) RNN๊ณผ ๋ค๋ฅด๊ฒ ์์ฐจ์ ์ผ๋ก ํ ํฐ์ ์ ๋ ฅ๋ฐ์ง ์๊ธฐ ๋๋ฌธ์, ํ ํฐ์ ์์น ์ ๋ณด์ ๋ํ ๋ฒกํฐ๋ฅผ ๋ฐ๋ก ์ ๊ณตํด์ฃผ๋ ๋จ๊ณ์ ๋๋ค. Self-Attention(์ ํ-์ดํ ์ ) - ์ธ์ฝ๋์ ์์น The..
[TIL] 79. ์ธ์ฝ๋-๋์ฝ๋, Attention
์ธ์ฝ๋-๋์ฝ๋ RNN์ ๋ค๋์ผ(many to one) ๊ตฌ์กฐ๋ ์ฃผ๋ก ๋ถ๋ฅ ๋ฌธ์ ์ ์ฌ์ฉ๋ฉ๋๋ค.(๋ฌธ์ฅ์ด ๋ค์ด์ค๋ฉด ๊ธ์ ์ธ์ง ๋ถ์ ์ธ ํ๋จํ๋ ๊ฐ์ฑ๋ถ์ ๋ฑ) ๋ค๋๋ค(many to many) ๊ตฌ์กฐ๋ ์ฃผ๋ก ๊ฐ์ฒด๋ช ์ธ์, ํ์ฌ ํ๊น ๊ณผ ๊ฐ์ ๋ฌธ์ ๋ฅผ ํ๊ฒ๋ฉ๋๋ค. ์ธ์ฝ๋-๋์ฝ๋์ ๊ตฌ์กฐ๋ ํ๋์ RNN์ ์ธ์ฝ๋, ๋ ๋ค๋ฅธ ํ๋์ RNN์ ๋์ฝ๋๋ก ๋๋ ๊ตฌ์กฐ ๋๊ฐ์ RNN์ ์ฐ๊ฒฐํด์ ์ฌ์ฉํฉ๋๋ค. ์ธ์ฝ๋-๋์ฝ๋ ๊ตฌ์กฐ๋ ์ฃผ๋ก ์ ๋ ต ๋ฌธ์ฅ๊ณผ ์ถ๋ ฅ ๋ฌธ์ฅ์ ๊ธธ์ด๊ฐ ๋ค๋ฅผ ๋ ์ฌ์ฉํฉ๋๋ค. ๋ํ์ ์ผ๋ก ๋ฒ์ญ๊ธฐ, ํ ์คํธ ์์ฝ ๋ฑ์ด ์์ต๋๋ค. seq2seq(Sequence to Sequence) ์ ๋ ฅ๋ ์ํ์ค๋ก๋ถํฐ ๋ค๋ฅธ ๋๋ฉ์ธ์ ์ํ์ค๋ฅผ ์ถ๋ ฅํ๋ ๋ชจ๋ธ ์ฑ๋ด, ๊ธฐ๊ณ ๋ฒ์ญ ๋ฑ ๋ค์ํ ๋ถ์ผ์์ ํ์ฉ๋๊ณ ์์ต๋๋ค. ์ ๋ ฅ ์ํ์ค๋ฅผ ์ง๋ฌธ, ์ถ๋ ฅ ์ํ์ค๋ฅผ ๋๋ต ..
[๋ฅ๋ฌ๋, NLP] Transformer(Positional encoding, Attention)
Positional Encoding RNN๊ณผ ๋ฌ๋ฆฌ Transformer๋ ๋ชจ๋ ํ ํฐ์ด ํ๋ฒ์ ์ ๋ ฅ๋๊ธฐ ๋๋ฌธ์ recursive๋ฅผ ํตํ ๋จ์ด ๊ฐ ์์น, ์์ ์ ๋ณด๋ฅผ ๋ด์ ์ ์์ต๋๋ค. ๊ทธ๋ ๊ธฐ ๋๋ฌธ์, ์ ์ด์ input ์ ํ ํฐ์ ์์น์ ๋ํ ์ ๋ณด๋ฅผ ๋ง๋ค์ด ํ ํฐ์ ํฌํจ์ํค๋ ์์ ์ ํ๊ฒ ๋๋๋ฐ ์ด ๊ณผ์ ์ด Positional Encoding ์ ๋๋ค. Self-Attention Attention : ๋์ฝ๋์์ ์ถ๋ ฅ ๋จ์ด๋ฅผ ์์ธกํ๋ ๋งค ์์ (time step)๋ง๋ค, ์ธ์ฝ๋์์์ ์ ์ฒด ์ ๋ ฅ ๋ฌธ์ฅ์ ์ฐธ๊ณ ํ๋ ๋ฐฉ๋ฒ. ์ด ๋, ์ ์ฒด ์ ๋ ฅ๋๋ ๋ฌธ์ฅ์ ํ ํฐ์ ๋์ผํ ๋น์ค์ผ๋ก ์ฐธ๊ณ ํ๋ ๊ฒ์ด ์๋, ํด๋น ์์ ์ ์์ธกํ ๋จ์ด์ ์ฐ๊ด์ฑ์ด ๋์ ์ ๋ ฅ ํ ํฐ์ ๋ ๋น์ค์๊ฒ ์ง์ค(attention)ํด์ ๋ณด๋ ๋ฐฉ๋ฒ์ ๋๋ค. ๋ฌธ์ฅ ๋ด์์์ ํ ..
[๋ฅ๋ฌ๋, NLP] RNN, LSTM, GRU
RNN(Recurrent Neural Network) ์ ๋ ฅ์ธต -> ์๋์ธต -> ์ถ๋ ฅ์ธต์ ๊ตฌ์กฐ๋ง์ ๊ฐ๋ ์ ๊ฒฝ๋ง์ ํผ๋ ํฌ์๋ ์ ๊ฒฝ๋ง์ด๋ผ๊ณ ํฉ๋๋ค. ๋ฐ๋ฉด ์ํ ์ ๊ฒฝ๋ง(RNN)์ ์๋์ธต์์ ๋์จ ๊ฐ์ ์ถ๋ ฅ์ธต์ผ๋ก ๋ณด๋ด๋ฉด์ ๋์์ ๋ค์ ์๋์ธต ๋ ธ๋์ ๊ฒฐ๊ณผ๊ฐ์ ๋ค์ ๊ณ์ฐ์ ์ํ ์ ๋ ฅ์ผ๋ก ๋ณด๋ด๋ ๊ตฌ์กฐ๋ฅผ ๊ฐ๊ณ ์์ต๋๋ค.RNN ๊ตฌ์กฐ ์ผ์ชฝ๊ณผ ์ค๋ฅธ์ชฝ ๋ชจ๋ RNN ๊ตฌ์กฐ๋ฅผ ํํํ ๊ทธ๋ฆผ์ ๋๋ค. ์ค๋ฅธ์ชฝ ๊ทธ๋ฆผ์ ๊ธฐ์ค์ผ๋ก 3๋ฒ์งธ ์ (์ฐ๋์ ๋ค๋ชจ)๋ ์ด์ x2์ ์ํ ๊ฒฐ๊ณผ๊ฐ๊ณผ ์๋ก์ด input์ธ x3๋ฅผ ํจ๊ป ๋ฐ์ y3์ ์ถ๋ ฅ๊ฐ์ ๋ด๋๊ฒ ๋ฉ๋๋ค. ์ฆ, RNN์ t ์์ ์์ x_t์ ์ ๋ ฅ๊ฐ์ ๋ํ ์ถ๋ ฅ๊ฐ y_t๋ฅผ ๊ณ์ฐํ ๋, ์ด์ ์์ (t-1)์ ๋ํ ๊ฒฐ๊ณผ๊ฐ์ ํจ๊ป ์ ๋ ฅ๊ฐ์ผ๋ก ๋ฐ์ ๋ฐ์ํ๊ฒ ๋ฉ๋๋ค. ์ด๋ฌํ ๊ตฌ์กฐ๋ฅผ ๊ฐ๋ ์ด์ ๋ ์์ฐ์ด, ์๊ณ..