๊ด€๋ฆฌ ๋ฉ”๋‰ด

๋ชฉ๋ก์ „์ฒด ๊ธ€ (350)

DATA101

[NLP] Word2Vec: (2) CBOW ๊ฐœ๋… ๋ฐ ์›๋ฆฌ

๐Ÿ“š๋ชฉ์ฐจ1. ํ•™์Šต ๋ฐ์ดํ„ฐ์…‹ ์ƒ์„ฑ 2. ์ธ๊ณต์‹ ๊ฒฝ๋ง ๋ชจํ˜• 3. ํ•™์Šต ์ ˆ์ฐจ4. CBOW vs Skip-gram5. ํ•œ๊ณ„์ ๋“ค์–ด๊ฐ€๋ฉฐWord2Vec๋Š” ํ•™์Šต๋ฐฉ์‹์— ๋”ฐ๋ผ ํฌ๊ฒŒ \(2\)๊ฐ€์ง€๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค: Continuous Bag of Words(CBOW)์™€ Skip-gram. CBOW๋Š” ์ฃผ๋ณ€ ๋‹จ์–ด(Context Word)๋กœ ์ค‘๊ฐ„์— ์žˆ๋Š” ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค. ์—ฌ๊ธฐ์„œ ์ค‘๊ฐ„์— ์žˆ๋Š” ๋‹จ์–ด๋ฅผ ์ค‘์‹ฌ ๋‹จ์–ด(Center Word) ๋˜๋Š” ํƒ€๊ฒŸ ๋‹จ์–ด(Target Word)๋ผ๊ณ  ๋ถ€๋ฆ…๋‹ˆ๋‹ค. ๋ฐ˜๋Œ€๋กœ, Skip-gram์€ ์ค‘์‹ฌ ๋‹จ์–ด๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ ์ฃผ๋ณ€ ๋‹จ์–ด๋“ค์„ ์˜ˆ์ธกํ•˜๋Š” ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค. ๋ณธ ํฌ์ŠคํŒ…์—์„œ๋Š” CBOW์— ๋Œ€ํ•ด ๋‹ค๋ฃจ๊ณ , ๋‹ค์Œ ํฌ์ŠคํŒ…์—์„œ Skip-gram์— ๋Œ€ํ•ด ์ž์„ธํžˆ ๋‹ค๋ฃน๋‹ˆ๋‹ค.1. ํ•™์Šต ๋ฐ์ดํ„ฐ์…‹ ์ƒ์„ฑCBOW์—์„œ ํ•™์Šต ๋ฐ์ดํ„ฐ์…‹์„ ..

[NLP] Word2Vec: (1) ๊ฐœ๋…

๐Ÿ“š ๋ชฉ์ฐจ1. Word2Vec ๊ฐœ๋…2. ํฌ์†Œํ‘œํ˜„๊ณผ์˜ ์ฐจ์ด์  3. ์–ธ์–ด๋ชจ๋ธ๊ณผ์˜ ์ฐจ์ด์ 1. Word2Vec ๊ฐœ๋…Word2Vec๋Š” Word to Vector๋ผ๋Š” ์ด๋ฆ„์—์„œ ์•Œ ์ˆ˜ ์žˆ๋“ฏ์ด ๋‹จ์–ด(Word)๋ฅผ ์ปดํ“จํ„ฐ๊ฐ€ ์ดํ•ดํ•  ์ˆ˜ ์žˆ๋„๋ก ์ˆ˜์น˜ํ™”๋œ ๋ฒกํ„ฐ(Vector)๋กœ ํ‘œํ˜„ํ•˜๋Š” ๊ธฐ๋ฒ• ์ค‘ ํ•˜๋‚˜์ž…๋‹ˆ๋‹ค. ๊ตฌ์ฒด์ ์œผ๋กœ๋Š” ๋ถ„์‚ฐํ‘œํ˜„(Distributed Representation) ๊ธฐ๋ฐ˜์˜ ์›Œ๋“œ์ž„๋ฒ ๋”ฉ(Word Embedding) ๊ธฐ๋ฒ• ์ค‘ ํ•˜๋‚˜์ž…๋‹ˆ๋‹ค. ๋ถ„์‚ฐํ‘œํ˜„์ด๋ž€ ๋ถ„ํฌ๊ฐ€์„ค(Distibutional Hypothesis) ๊ฐ€์ • ํ•˜์— ์ €์ฐจ์›์— ๋‹จ์–ด ์˜๋ฏธ๋ฅผ ๋ถ„์‚ฐํ•˜์—ฌ ํ‘œํ˜„ํ•˜๋Š” ๊ธฐ๋ฒ•์ž…๋‹ˆ๋‹ค. ๋ถ„ํฌ๊ฐ€์„ค์€ "์œ ์‚ฌํ•œ ๋ฌธ๋งฅ์— ๋“ฑ์žฅํ•œ ๋‹จ์–ด๋Š” ์œ ์‚ฌํ•œ ์˜๋ฏธ๋ฅผ ๊ฐ–๋Š”๋‹ค"๋ผ๋Š” ๊ฐ€์ •์ž…๋‹ˆ๋‹ค. ์—ฌ๊ธฐ์„œ ๋‹จ์–ด๋ฅผ ๋ฒกํ„ฐํ™”ํ•˜๋Š” ์ž‘์—…์„ ์›Œ๋“œ์ž„๋ฒ ๋”ฉ(Word Embedding)์ด๋ผ๊ณ ..

[NLP] Word Embedding์˜ ์ดํ•ด: ํฌ์†Œํ‘œํ˜„๊ณผ ๋ฐ€์ง‘ํ‘œํ˜„

๐Ÿ“š ๋ชฉ์ฐจ1. ํฌ์†Œํ‘œํ˜„(Sparse Representation) 2. ๋ฐ€์ง‘ํ‘œํ˜„(Dense Representation) 3. ์›Œ๋“œ์ž„๋ฒ ๋”ฉ(Word Embedding)๋“ค์–ด๊ฐ€๋ฉฐ์›Œ๋“œ ์ž„๋ฒ ๋”ฉ(Word Embedding)์€ ๋‹จ์–ด(Word)๋ฅผ ์ปดํ“จํ„ฐ๊ฐ€ ์ดํ•ดํ•  ์ˆ˜ ์žˆ๋„๋ก ๋ฒกํ„ฐ๋กœ ํ‘œํ˜„ํ•˜๋Š” ๊ธฐ๋ฒ• ์ค‘ ํ•˜๋‚˜์ธ๋ฐ, ํŠนํžˆ ๋ฐ€์ง‘ํ‘œํ˜„(Dense Representation) ๋ฐฉ์‹์„ ํ†ตํ•ด ํ‘œํ˜„ํ•˜๋Š” ๊ธฐ๋ฒ•์„ ๋งํ•ฉ๋‹ˆ๋‹ค. ๋ฐ€์ง‘ํ‘œํ˜„๊ณผ ๋ฐ˜๋Œ€๋˜๋Š” ๊ฐœ๋…์ด ํฌ์†Œํ‘œํ˜„(Sparse Representation)์ž…๋‹ˆ๋‹ค. ์›Œ๋“œ ์ž„๋ฒ ๋”ฉ์„ ์ดํ•ดํ•˜๊ธฐ์— ์•ž์„œ ํฌ์†Œํ‘œํ˜„๊ณผ ๋ฐ€์ง‘ํ‘œํ˜„์— ๋Œ€ํ•ด ์•Œ์•„๋ด…๋‹ˆ๋‹ค.1. ํฌ์†Œํ‘œํ˜„(Sparse Representation)ํฌ์†Œํ‘œํ˜„์€ ๋ฐ์ดํ„ฐ๋ฅผ ๋ฒกํ„ฐ ๋˜๋Š” ํ–‰๋ ฌ์„ ๊ธฐ๋ฐ˜์œผ๋กœ ์ˆ˜์น˜ํ™”ํ•˜์—ฌ ํ‘œํ˜„ํ•  ๋•Œ ๊ทนํžˆ ์ผ๋ถ€์˜ ์ธ๋ฑ์Šค๋งŒ ํŠน์ • ๊ฐ’์œผ๋กœ ํ‘œํ˜„ํ•˜๊ณ , ๋Œ€๋ถ€๋ถ„์˜ ..

[NLP] ์–ธ์–ด๋ชจ๋ธ์˜ ํ‰๊ฐ€์ง€ํ‘œ 'Perplexity' ๊ฐœ๋… ๋ฐ ๊ณ„์‚ฐ๋ฐฉ๋ฒ•

๐Ÿ“š ๋ชฉ์ฐจ1. Perplexity ๊ฐœ๋…2. Perplexity ๊ฐ’์˜ ์˜๋ฏธ3. Perplexity ๊ณ„์‚ฐ๋ฐฉ๋ฒ•1. Perplexity ๊ฐœ๋…1.1. ๊ฐœ์š”Perplexity(PPL)๋Š” ํ…์ŠคํŠธ ์ƒ์„ฑ(Text Generation) ์–ธ์–ด ๋ชจ๋ธ์˜ ์„ฑ๋Šฅ ํ‰๊ฐ€์ง€ํ‘œ ์ค‘ ํ•˜๋‚˜์ž…๋‹ˆ๋‹ค. Perplexity๋Š” 'ํŽ„ํ”Œ๋ ‰์„œํ‹ฐ'๋ผ๊ณ  ์ฝ์œผ๋ฉฐ, '(๋ฌด์–ธ๊ฐ€๋ฅผ ์ดํ•ดํ•  ์ˆ˜ ์—†์–ด) ๋‹นํ˜น์Šค๋Ÿฌ์šด ์ •๋„' ๋˜๋Š” 'ํ—ท๊ฐˆ๋ฆฌ๋Š” ์ •๋„'๋กœ ์ดํ•ดํ•˜์‹œ๋ฉด ๋ฉ๋‹ˆ๋‹ค(cf., ๋„ค์ด๋ฒ„ ์˜์–ด์‚ฌ์ „). ์ผ๋ฐ˜์ ์œผ๋กœ ํ…Œ์ŠคํŠธ ๋ฐ์ดํ„ฐ์…‹์ด ์ถฉ๋ถ„ํžˆ ์‹ ๋ขฐํ•  ๋งŒํ•  ๋•Œ Perplexity ๊ฐ’์ด ๋‚ฎ์„์ˆ˜๋ก ์–ธ์–ด ๋ชจ๋ธ์ด ์šฐ์ˆ˜ํ•˜๋‹ค๊ณ  ํ‰๊ฐ€ํ•ฉ๋‹ˆ๋‹ค. ์ด์— ๋Œ€ํ•œ ๋‚ด์šฉ์€ ์ด์–ด์ง€๋Š” '2. Perplexity ๊ฐ’์˜ ์˜๋ฏธ' ์„น์…˜์—์„œ ๋”์šฑ ์ž์„ธํžˆ ๋‹ค๋ฃน๋‹ˆ๋‹ค.1.2. ๋ถ„๊ธฐ๊ณ„์ˆ˜Perplexity๋Š” ๊ณง ์–ธ์–ด ๋ชจ๋ธ์˜ ..

[NLP] N-gram ์–ธ์–ด ๋ชจ๋ธ์˜ ๊ฐœ๋…, ์ข…๋ฅ˜, ํ•œ๊ณ„์ 

๐Ÿ“š ๋ชฉ์ฐจ1. N-gram ๊ฐœ๋…2. N-gram ๋“ฑ์žฅ ๋ฐฐ๊ฒฝ3. N-gram ์ข…๋ฅ˜ 4. N-gram ๊ธฐ๋ฐ˜ ๋‹จ์–ด ์˜ˆ์ธก 5. N-gram์˜ ํ•œ๊ณ„์ 1. N-gram ๊ฐœ๋…์–ธ์–ด ๋ชจ๋ธ(Language Model)์€ ๋ฌธ์žฅ ๋‚ด ์•ž์„œ ๋“ฑ์žฅํ•œ ๋‹จ์–ด๋ฅผ ๊ธฐ๋ฐ˜์œผ๋กœ ์ด์–ด์„œ ๋“ฑ์žฅํ•  ์ ์ ˆํ•œ ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•˜๋Š” ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค. ์–ธ์–ด ๋ชจ๋ธ์€ ํฌ๊ฒŒ ํ†ต๊ณ„ํ•™ ๊ธฐ๋ฐ˜์˜ ์–ธ์–ด ๋ชจ๋ธ(Statistical Language Model, SLM)๊ณผ ์ธ๊ณต์‹ ๊ฒฝ๋ง(Artificial Neural Network, ANN) ๊ธฐ๋ฐ˜์˜ ์–ธ์–ด ๋ชจ๋ธ์ด ์žˆ์Šต๋‹ˆ๋‹ค. N-gram์€ ํ†ต๊ณ„ํ•™ ๊ธฐ๋ฐ˜์˜ ์–ธ์–ด ๋ชจ๋ธ ์ค‘ ํ•˜๋‚˜์ž…๋‹ˆ๋‹ค. N-gram ์–ธ์–ด ๋ชจ๋ธ์€ ์ด์ฒ˜๋Ÿผ ๋‹ค์Œ ๋‹จ์–ด๋ฅผ ์˜ˆ์ธกํ•  ๋•Œ ๋ฌธ์žฅ ๋‚ด ๋ชจ๋“  ๋‹จ์–ด๋ฅผ ๊ณ ๋ คํ•˜์ง€ ์•Š๊ณ  ํŠน์ • ๋‹จ์–ด์˜ ๊ฐœ์ˆ˜(\(N\))๋งŒ ๊ณ ๋ คํ•ฉ๋‹ˆ๋‹ค. ์ฆ‰, N-gram์€ \(N\)..

[NLP] ์–ธ์–ด๋ชจ๋ธ(Language Model)์˜ ๊ฐœ๋… ๋ฐ ํŠน์ง•

๋ณธ ํฌ์ŠคํŒ…์—์„œ๋Š” ํ†ต๊ณ„ํ•™์  ์–ธ์–ด ๋ชจ๋ธ์˜ ๊ฐœ๋… ๋ฐ ํŠน์ง•์— ๋Œ€ํ•ด ์•Œ์•„๋ด…๋‹ˆ๋‹ค.๐Ÿ“š ๋ชฉ์ฐจ1. ๊ฐœ๋… 2. ํ™•๋ฅ ์  ํ‘œํ˜„ 3. ์ ์šฉ๋ถ„์•ผ1. ๊ฐœ๋…1.1. ๊ฐœ์š”์–ธ์–ด ๋ชจ๋ธ(Language Model)์€ ๋ฌธ์žฅ์ด ์–ผ๋งˆ๋‚˜ ์ž์—ฐ์Šค๋Ÿฌ์šด์ง€ ํ™•๋ฅ ์ ์œผ๋กœ ๊ณ„์‚ฐํ•จ์œผ๋กœ์จ ๋ฌธ์žฅ ๋‚ด ํŠน์ • ์œ„์น˜์— ์ถœํ˜„ํ•˜๊ธฐ ์ ํ•ฉํ•œ ๋‹จ์–ด๋ฅผ ํ™•๋ฅ ์ ์œผ๋กœ ์˜ˆ์ธกํ•˜๋Š” ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค. ๋”์šฑ ์‰ฝ๊ฒŒ ์„ค๋ช…ํ•˜์ž๋ฉด, ์–ธ์–ด ๋ชจ๋ธ์€ ๋ฌธ์žฅ ๋‚ด ์•ž์„œ ๋“ฑ์žฅํ•œ ๋‹จ์–ด๋ฅผ ๊ธฐ๋ฐ˜์œผ๋กœ ๋’ค์— ์–ด๋–ค ๋‹จ์–ด๊ฐ€ ๋“ฑ์žฅํ•ด์•ผ ๋ฌธ์žฅ์ด ์ž์—ฐ์Šค๋Ÿฌ์šด์ง€ ํŒ๋‹จํ•˜๋Š” ๋„๊ตฌ์ž…๋‹ˆ๋‹ค.์–ธ์–ด ๋ชจ๋ธ์€ ํฌ๊ฒŒ ํ†ต๊ณ„ํ•™์  ์–ธ์–ด ๋ชจ๋ธ๊ณผ ์ธ๊ณต์‹ ๊ฒฝ๋ง ๊ธฐ๋ฐ˜์˜ ์–ธ์–ด ๋ชจ๋ธ์ด ์žˆ์Šต๋‹ˆ๋‹ค. ์ตœ๊ทผ์—๋Š” BERT, GPT-3์™€ ๊ฐ™์€ ์ธ๊ณต์‹ ๊ฒฝ๋ง ๊ธฐ๋ฐ˜์˜ ์–ธ์–ด ๋ชจ๋ธ์˜ ์„ฑ๋Šฅ์ด ๋›ฐ์–ด๋‚˜ ๋Œ€๋ถ€๋ถ„์˜ ์ž์—ฐ์–ด์ฒ˜๋ฆฌ ๋ฌธ์ œ์—์„œ๋Š” ์ธ๊ณต์‹ ๊ฒฝ๋ง ๊ธฐ๋ฐ˜์˜ ์–ธ์–ด ๋ชจ๋ธ์„ ์‚ฌ์šฉํ•ฉ๋‹ˆ๋‹ค. ๋ณธ ํฌ์ŠคํŒ…์—์„œ๋Š” ํ†ต๊ณ„ํ•™ ..

[SAP/ABAP] Subroutine ๊ฐœ๋… ๋ฐ Perform ๊ตฌ๋ฌธ ์ดํ•ด

๋ณธ ํฌ์ŠคํŒ…์—์„œ๋Š” Subroutine์˜ ๊ฐœ๋…๊ณผ Perform ๊ตฌ๋ฌธ์— ๋Œ€ํ•ด ์•Œ์•„๋ด…๋‹ˆ๋‹ค. 1. Subroutine ๊ฐœ๋… Subroutine์€ FORM์œผ๋กœ ์‹œ์ž‘ํ•˜์—ฌ END FORM์œผ๋กœ ์ข…๋ฃŒ๋˜๋Š” ๊ตฌ๋ฌธ์„ ์˜๋ฏธํ•˜๋ฉฐ, ์ฝ”๋“œ์˜ ๋ชจ๋“ˆํ™”(modularization), ๊ตฌ์กฐํ™”, ์žฌ์‚ฌ์šฉ์ด ์ฃผ๋ชฉ์ ์ž…๋‹ˆ๋‹ค. ์ฆ‰, Subroutine๋Š” ์˜๋ฏธ ์žˆ๋Š” ๊ธฐ๋Šฅ๋ณ„๋กœ ํ”„๋กœ๊ทธ๋žจ์„ ๊ตฌ์กฐํ™”ํ•จ์œผ๋กœ์จ ์ „์ฒด์ ์ธ ์ฝ”๋“œ ํ๋ฆ„์„ ํŒŒ์•…ํ•˜๋Š” ๋ฐ ๋„์›€์ด ๋˜๋ฉฐ ์‹œ์Šคํ…œ ์œ ์ง€๋ณด์ˆ˜์˜ ํŽธ์˜์„ฑ์„ ์ฆ์ง„ํ•˜๋Š” ์žฅ์ ์ด ์žˆ์Šต๋‹ˆ๋‹ค. PERFORM ๊ตฌ๋ฌธ๊ณผ ๋ณ€์ˆ˜, ์ธํ„ฐ๋„ ํ…Œ์ด๋ธ” ๋“ฑ์˜ ํŒŒ๋ผ๋ฏธํ„ฐ ๊ฐ’์„ ์ฃผ๊ณ ๋ฐ›๋Š” Function Module์ด Subroutine์— ํ•ด๋‹นํ•ฉ๋‹ˆ๋‹ค. 2. PERFORM ๊ตฌ๋ฌธ ํ”„๋กœ๊ทธ๋žจ์„ ์ƒ์„ฑํ•˜๊ณ  PERFORM ๊ตฌ๋ฌธ์„ ํ†ตํ•ด Subroutine์„ ํ˜ธ์ถœํ•˜๋ฉด FORM ๊ตฌ๋ฌธ์ด ์‹คํ–‰๋ฉ..

SW ๊ฐœ๋ฐœ/ABAP(SAP) 2022. 3. 28. 08:07