๐Ÿ’ฟ Data

    [TIL] 81. Section4 Sprint2

    ์ž์—ฐ์–ด์ฒ˜๋ฆฌ(Natural Language Processing)์— ๋Œ€ํ•ด์„œ ๋ฐฐ์› ๋˜ ์Šคํ”„๋ฆฐํŠธ ์ถ”ํ›„์— ๋”ฅ๋Ÿฌ๋‹ ํŒŒํŠธ์— ๋Œ€ํ•ด ๋” ๊ณต๋ถ€ํ•˜๊ฒŒ ๋œ๋‹ค๋ฉด ๊ฐ€์žฅ ๊ด€์‹ฌ ๊ฐ€๋Š” ๋ถ„์•ผ์—ฌ์„œ ๋งŽ์ด ๊ธฐ๋Œ€ํ–ˆ๋˜ ์Šคํ”„๋ฆฐํŠธ์ด๊ธฐ๋„ ํ•˜๋‹ค. :) - ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ๋กœ ํ•  ์ˆ˜ ์žˆ๋Š” ์ผ๋“ค ๋ถ„๋ฅ˜, ๋ฒˆ์—ญ, ์š”์•ฝ, ์ฑ—๋ด‡, ์ด๋ฏธ์ง€ ์บก์…˜ ๋“ฑ๋“ฑ - ํ…์ŠคํŠธ์— ๋Œ€ํ•œ ์ „์ฒ˜๋ฆฌ ๊ณผ์ • ๋‚ด์žฅ๋ฉ”์†Œ๋“œ ์ด์šฉ, ์ •๊ทœ ํ‘œํ˜„์‹, ๋ถˆ์šฉ์–ด ์ฒ˜๋ฆฌ, ํ†ต๊ณ„์  ํŠธ๋ฆฌ๋ฐ, ์–ด๊ฐ„/ํ‘œ์ œ์–ด ์ถ”์ถœ - ํ…์ŠคํŠธ์˜ ๋ฒกํ„ฐํ™”(์ปดํ“จํ„ฐ๊ฐ€ ์ดํ•ดํ•˜๊ธฐ ์ข‹๊ฒŒ) ํšŒ์ˆซ ๊ธฐ๋ฐ˜ ๋‹จ์–ด ํ‘œํ˜„(TF, TF-IDF) ๋ถ„ํฌ ๊ธฐ๋ฐ˜ ๋‹จ์–ด ํ‘œํ˜„(Word2Vec) (์ž„๋ฒ ๋”ฉ ๋ฐฉ๋ฒ• ์ค‘ ํ•˜๋‚˜) - ์ž์—ฐ์–ด ๋ชจ๋ธ๋ง with ์ˆœํ™˜ ์‹ ๊ฒฝ๋ง(RNN) ์—ฐ์†ํ˜• ๋ฐ์ดํ„ฐ(sequential data), ๋ณ‘๋ ฌํ™” ๋ถˆ๊ฐ€/๊ธฐ์šธ๊ธฐ ์†Œ์‹ค(์žฅ๊ธฐ ์˜์กด์„ฑ ๋ฌธ์ œ) LSTM, GRU ๋“ฑ์žฅ, A..

    [TIL] 80. Transformer

    Transformer ๊ธฐ๊ณ„ ๋ฒˆ์—ญ์„ ์œ„ํ•œ ์ƒˆ๋กœ์šด ๋ชจ๋ธ Attention ๋ฉ”์ปค๋‹ˆ์ฆ˜์„ ๊ทน๋Œ€ํ™”ํ•œ ๋ชจ๋ธ ๊ตฌ์กฐ์  ๋‹จ์–ด๊ฐ€ ์ˆœ์ฐจ์ ์œผ๋กœ ๋“ค์–ด์˜ค๋Š” RNN ๋ชจ๋ธ์˜ ๋‹จ์ ์„ ํ•ด๊ฒฐํ•˜๊ธฐ ์œ„ํ•ด ๋“ฑ์žฅํ•œ ๋ชจ๋ธ ๋ชจ๋“  ํ† ํฐ(๋‹จ์–ด)๋ฅผ ๋™์‹œ์— ์ž…๋ ฅ๋ฐ›์•„ ๋ณ‘๋ ฌ ์ฒ˜๋ฆฌํ•˜๊ธฐ๋•Œ๋ฌธ์— GPU ์—ฐ์‚ฐ์— ์ตœ์ ํ™”(์‹œ๊ฐ„์ด ๋น ๋ฆ„) 2017๋…„ ๊ตฌ๊ธ€์ด ๋ฐœํ‘œํ•œ "Attention is all you need"์—์„œ ๋“ฑ์žฅํ•œ ๋ชจ๋ธ ๊ธฐ์กด์˜ seq2seq์˜ ๊ตฌ์กฐ์ธ ์ธ์ฝ”๋”-๋””์ฝ”๋” ๊ตฌ์กฐ๋ฅผ ๋”ฐ๋ฅด๋ฉด์„œ RNN์„ ์‚ฌ์šฉํ•˜์ง€ ์•Š๊ณ  Attention๋งŒ์œผ๋กœ ๊ตฌํ˜„ํ•œ ๋ชจ๋ธ Positional Encoding(์œ„์น˜ ์ธ์ฝ”๋”ฉ) RNN๊ณผ ๋‹ค๋ฅด๊ฒŒ ์ˆœ์ฐจ์ ์œผ๋กœ ํ† ํฐ์„ ์ž…๋ ฅ๋ฐ›์ง€ ์•Š๊ธฐ ๋•Œ๋ฌธ์—, ํ† ํฐ์˜ ์œ„์น˜ ์ •๋ณด์— ๋Œ€ํ•œ ๋ฒกํ„ฐ๋ฅผ ๋”ฐ๋กœ ์ œ๊ณตํ•ด์ฃผ๋Š” ๋‹จ๊ณ„์ž…๋‹ˆ๋‹ค. Self-Attention(์…€ํ”„-์–ดํ…์…˜) - ์ธ์ฝ”๋”์— ์œ„์น˜ The..

    [TIL] 79. ์ธ์ฝ”๋”-๋””์ฝ”๋”, Attention

    ์ธ์ฝ”๋”-๋””์ฝ”๋” RNN์˜ ๋‹ค๋Œ€์ผ(many to one) ๊ตฌ์กฐ๋Š” ์ฃผ๋กœ ๋ถ„๋ฅ˜ ๋ฌธ์ œ์— ์‚ฌ์šฉ๋ฉ๋‹ˆ๋‹ค.(๋ฌธ์žฅ์ด ๋“ค์–ด์˜ค๋ฉด ๊ธ์ •์ธ์ง€ ๋ถ€์ •์ธ ํŒ๋‹จํ•˜๋Š” ๊ฐ์„ฑ๋ถ„์„ ๋“ฑ) ๋‹ค๋Œ€๋‹ค(many to many) ๊ตฌ์กฐ๋Š” ์ฃผ๋กœ ๊ฐœ์ฒด๋ช… ์ธ์‹, ํ’ˆ์‚ฌ ํƒœ๊น…๊ณผ ๊ฐ™์€ ๋ฌธ์ œ๋ฅผ ํ’€๊ฒŒ๋ฉ๋‹ˆ๋‹ค. ์ธ์ฝ”๋”-๋””์ฝ”๋”์˜ ๊ตฌ์กฐ๋Š” ํ•˜๋‚˜์˜ RNN์„ ์ธ์ฝ”๋”, ๋˜ ๋‹ค๋ฅธ ํ•˜๋‚˜์˜ RNN์„ ๋””์ฝ”๋”๋กœ ๋‘๋Š” ๊ตฌ์กฐ ๋‘๊ฐœ์˜ RNN์„ ์—ฐ๊ฒฐํ•ด์„œ ์‚ฌ์šฉํ•ฉ๋‹ˆ๋‹ค. ์ธ์ฝ”๋”-๋””์ฝ”๋” ๊ตฌ์กฐ๋Š” ์ฃผ๋กœ ์ž…๋ ต ๋ฌธ์žฅ๊ณผ ์ถœ๋ ฅ ๋ฌธ์žฅ์˜ ๊ธธ์ด๊ฐ€ ๋‹ค๋ฅผ ๋•Œ ์‚ฌ์šฉํ•ฉ๋‹ˆ๋‹ค. ๋Œ€ํ‘œ์ ์œผ๋กœ ๋ฒˆ์—ญ๊ธฐ, ํ…์ŠคํŠธ ์š”์•ฝ ๋“ฑ์ด ์žˆ์Šต๋‹ˆ๋‹ค. seq2seq(Sequence to Sequence) ์ž…๋ ฅ๋œ ์‹œํ€€์Šค๋กœ๋ถ€ํ„ฐ ๋‹ค๋ฅธ ๋„๋ฉ”์ธ์˜ ์‹œํ€€์Šค๋ฅผ ์ถœ๋ ฅํ•˜๋Š” ๋ชจ๋ธ ์ฑ—๋ด‡, ๊ธฐ๊ณ„ ๋ฒˆ์—ญ ๋“ฑ ๋‹ค์–‘ํ•œ ๋ถ„์•ผ์—์„œ ํ™œ์šฉ๋˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ์ž…๋ ฅ ์‹œํ€€์Šค๋ฅผ ์งˆ๋ฌธ, ์ถœ๋ ฅ ์‹œํ€€์Šค๋ฅผ ๋Œ€๋‹ต ..

    [๋”ฅ๋Ÿฌ๋‹, NLP] Transformer(Positional encoding, Attention)

    Positional Encoding RNN๊ณผ ๋‹ฌ๋ฆฌ Transformer๋Š” ๋ชจ๋“  ํ† ํฐ์ด ํ•œ๋ฒˆ์— ์ž…๋ ฅ๋˜๊ธฐ ๋•Œ๋ฌธ์— recursive๋ฅผ ํ†ตํ•œ ๋‹จ์–ด ๊ฐ„ ์œ„์น˜, ์ˆœ์„œ ์ •๋ณด๋ฅผ ๋‹ด์„ ์ˆ˜ ์—†์Šต๋‹ˆ๋‹ค. ๊ทธ๋ ‡๊ธฐ ๋•Œ๋ฌธ์—, ์• ์ดˆ์— input ์‹œ ํ† ํฐ์˜ ์œ„์น˜์— ๋Œ€ํ•œ ์ •๋ณด๋ฅผ ๋งŒ๋“ค์–ด ํ† ํฐ์— ํฌํ•จ์‹œํ‚ค๋Š” ์ž‘์—…์„ ํ•˜๊ฒŒ ๋˜๋Š”๋ฐ ์ด ๊ณผ์ •์ด Positional Encoding ์ž…๋‹ˆ๋‹ค. Self-Attention Attention : ๋””์ฝ”๋”์—์„œ ์ถœ๋ ฅ ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ๋งค ์‹œ์ (time step)๋งˆ๋‹ค, ์ธ์ฝ”๋”์—์„œ์˜ ์ „์ฒด ์ž…๋ ฅ ๋ฌธ์žฅ์„ ์ฐธ๊ณ ํ•˜๋Š” ๋ฐฉ๋ฒ•. ์ด ๋•Œ, ์ „์ฒด ์ž…๋ ฅ๋˜๋Š” ๋ฌธ์žฅ์˜ ํ† ํฐ์„ ๋™์ผํ•œ ๋น„์ค‘์œผ๋กœ ์ฐธ๊ณ ํ•˜๋Š” ๊ฒƒ์ด ์•„๋‹Œ, ํ•ด๋‹น ์‹œ์ ์˜ ์˜ˆ์ธกํ•  ๋‹จ์–ด์™€ ์—ฐ๊ด€์„ฑ์ด ๋†’์€ ์ž…๋ ฅ ํ† ํฐ์„ ๋” ๋น„์ค‘์žˆ๊ฒŒ ์ง‘์ค‘(attention)ํ•ด์„œ ๋ณด๋Š” ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค. ๋ฌธ์žฅ ๋‚ด์—์„œ์˜ ํ† ..

    [๋”ฅ๋Ÿฌ๋‹, NLP] RNN, LSTM, GRU

    RNN(Recurrent Neural Network) ์ž…๋ ฅ์ธต -> ์€๋‹‰์ธต -> ์ถœ๋ ฅ์ธต์˜ ๊ตฌ์กฐ๋งŒ์„ ๊ฐ–๋Š” ์‹ ๊ฒฝ๋ง์„ ํ”ผ๋“œ ํฌ์›Œ๋“œ ์‹ ๊ฒฝ๋ง์ด๋ผ๊ณ  ํ•ฉ๋‹ˆ๋‹ค. ๋ฐ˜๋ฉด ์ˆœํ™˜ ์‹ ๊ฒฝ๋ง(RNN)์€ ์€๋‹‰์ธต์—์„œ ๋‚˜์˜จ ๊ฐ’์„ ์ถœ๋ ฅ์ธต์œผ๋กœ ๋ณด๋‚ด๋ฉด์„œ ๋™์‹œ์— ๋‹ค์‹œ ์€๋‹‰์ธต ๋…ธ๋“œ์˜ ๊ฒฐ๊ณผ๊ฐ’์„ ๋‹ค์Œ ๊ณ„์‚ฐ์„ ์œ„ํ•œ ์ž…๋ ฅ์œผ๋กœ ๋ณด๋‚ด๋Š” ๊ตฌ์กฐ๋ฅผ ๊ฐ–๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค.RNN ๊ตฌ์กฐ ์™ผ์ชฝ๊ณผ ์˜ค๋ฅธ์ชฝ ๋ชจ๋‘ RNN ๊ตฌ์กฐ๋ฅผ ํ‘œํ˜„ํ•œ ๊ทธ๋ฆผ์ž…๋‹ˆ๋‹ค. ์˜ค๋ฅธ์ชฝ ๊ทธ๋ฆผ์„ ๊ธฐ์ค€์œผ๋กœ 3๋ฒˆ์งธ ์…€(์—ฐ๋‘์ƒ‰ ๋„ค๋ชจ)๋Š” ์ด์ „ x2์— ์˜ํ•œ ๊ฒฐ๊ณผ๊ฐ’๊ณผ ์ƒˆ๋กœ์šด input์ธ x3๋ฅผ ํ•จ๊ป˜ ๋ฐ›์•„ y3์˜ ์ถœ๋ ฅ๊ฐ’์„ ๋‚ด๋†“๊ฒŒ ๋ฉ๋‹ˆ๋‹ค. ์ฆ‰, RNN์€ t ์‹œ์ ์—์„œ x_t์˜ ์ž…๋ ฅ๊ฐ’์— ๋Œ€ํ•œ ์ถœ๋ ฅ๊ฐ’ y_t๋ฅผ ๊ณ„์‚ฐํ•  ๋•Œ, ์ด์ „ ์‹œ์ (t-1)์— ๋Œ€ํ•œ ๊ฒฐ๊ณผ๊ฐ’์„ ํ•จ๊ป˜ ์ž…๋ ฅ๊ฐ’์œผ๋กœ ๋ฐ›์•„ ๋ฐ˜์˜ํ•˜๊ฒŒ ๋ฉ๋‹ˆ๋‹ค. ์ด๋Ÿฌํ•œ ๊ตฌ์กฐ๋ฅผ ๊ฐ–๋Š” ์ด์œ ๋Š” ์ž์—ฐ์–ด, ์‹œ๊ณ„..