- Today
- Total
๋ชฉ๋กํ๊ฐ์งํ (4)
DATA101
 Multi-label Classification ํ๊ฐ์งํ: Example-based vs Label-based Evaluation
      
      
        Multi-label Classification ํ๊ฐ์งํ: Example-based vs Label-based Evaluation
        ๐ ๋ชฉ์ฐจ 1. Example-based Evaluation 1.1. Exact-Match Ratio(EMR) 1.2. Accuracy 1.3. Precision 1.4. Recall 1.5. F1 Score 1.6. Hamming Loss 2. Label-based Evaluation 2.1. Macro average 2.2. Mico average 2.3. Weighted average ๐จ๐ป ๋ค์ด๊ฐ๋ฉฐ Multi-label Classification ๋ชจ๋ธ ํ๊ฐ์งํ๋ฅผ ๋ผ๋ฒจ(lael)์ ๊ธฐ์ค์ผ๋ก ๊ณ์ฐํ๋์ง ํน์ test example์ ๊ธฐ์ค์ผ๋ก ๊ณ์ฐํ๋์ง์ ๋ฐ๋ผ ํ๊ฐ ๋ฐฉ๋ฒ์ ํฌ๊ฒ 2๊ฐ์ง๋ก ๋๋ฉ๋๋ค. 1) Example-based Evaluation 2) Label-based Evaluation ๊ฐ๊ฐ์ ๋ํด..
 ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ๊ฐ ์งํ: ROC Curve, AUC Score
      
      
        ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ๊ฐ ์งํ: ROC Curve, AUC Score
        1. ROC Curve Receiver Operating Characteristic ๊ณก์ ์ ์ฝ์ (๊ทธ๋ฆผ 1) \(x\)์ถ: FPR(False Positive Rate), \(y\)์ถ: TPR(True Positive Rate) FPR: ์ ์ฒด ๊ฒฝ์ฐ ์ค ๋ชจ๋ธ์ด Positive๋ก ์์ธกํ์ผ๋ ์ค์  ์ ๋ต์ด Negative์ธ ๋น์จ๋ก, ์ ์ฒด ๊ฒฝ์ฐ์์ TNR(True Negatvie Rate)๋ฅผ ๋บ ๊ฐ๊ณผ ๊ฐ์ $$ FPR = 1 - TNR = 1 - \frac{TN}{FP+TN}=\frac{FP}{FP+TN} $$ TPR: ์ ์ฒด ๊ฒฝ์ฐ ์ค ๋ชจ๋ธ์ด Positive๋ก ์์ธกํ๋๋ฐ ์ค์  ์ ๋ต์ด Positive์ธ ๋น์จ(Recall๊ณผ ๋์ผ) $$ TPR = Recall = \frac{TP}{TP+FN} $$ ๊ทธ๋ฆผ 1์์ Refer..
 ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ๊ฐ ์งํ: Confusion Matrix, Accuracy, Precision, Recall, F1 Score, Average Precision
      
      
        ๋ฅ๋ฌ๋ ๋ชจ๋ธ ํ๊ฐ ์งํ: Confusion Matrix, Accuracy, Precision, Recall, F1 Score, Average Precision
        ๐ ๋ชฉ์ฐจ 1. Confusion Matrix 2. Accuracy 3. Precision 4. Recall 5. F1 Score 6. Average Precision ๐จ๐ป ๋ค์ด๊ฐ๋ฉฐ ๋ณธ ํฌ์คํ ์์๋ Binary Classification ๋ฐ Multi-class Classification์์ ๊ธฐ๋ณธ์ ์ผ๋ก ๋ค๋ฃจ๋ ํ๊ฐ์งํ์ธ Confusion Matrix, Accuracy, Precision, Recall, F1 Score, Average Precision์ ๋ํด ๋ค๋ฃน๋๋ค. Multi-label Classification์์ ์ฌ์ฉ๋๋ ํ๊ฐ์งํ๋ ์๋์ ํฌ์คํ ์ ์ฐธ๊ณ ํด ์ฃผ์ธ์. https://heytech.tistory.com/434 1. Confusion Matrix 'ํผ๋ ํ๋ ฌ' ๋๋ '์ค์ฐจ ํ๋ ฌ'์ด๋ผ๋ ๋ถ..
 [NLP] ์ธ์ด๋ชจ๋ธ์ ํ๊ฐ์งํ 'Perplexity' ๊ฐ๋
 ๋ฐ ๊ณ์ฐ๋ฐฉ๋ฒ
      
      
        [NLP] ์ธ์ด๋ชจ๋ธ์ ํ๊ฐ์งํ 'Perplexity' ๊ฐ๋
 ๋ฐ ๊ณ์ฐ๋ฐฉ๋ฒ
        ๐ ๋ชฉ์ฐจ1. Perplexity ๊ฐ๋ 2. Perplexity ๊ฐ์ ์๋ฏธ3. Perplexity ๊ณ์ฐ๋ฐฉ๋ฒ1. Perplexity ๊ฐ๋ 1.1. ๊ฐ์Perplexity(PPL)๋ ํ ์คํธ ์์ฑ(Text Generation) ์ธ์ด ๋ชจ๋ธ์ ์ฑ๋ฅ ํ๊ฐ์งํ ์ค ํ๋์ ๋๋ค. Perplexity๋ 'ํํ๋ ์ํฐ'๋ผ๊ณ ์ฝ์ผ๋ฉฐ, '(๋ฌด์ธ๊ฐ๋ฅผ ์ดํดํ ์ ์์ด) ๋นํน์ค๋ฌ์ด ์ ๋' ๋๋ 'ํท๊ฐ๋ฆฌ๋ ์ ๋'๋ก ์ดํดํ์๋ฉด ๋ฉ๋๋ค(cf., ๋ค์ด๋ฒ ์์ด์ฌ์ ). ์ผ๋ฐ์ ์ผ๋ก ํ ์คํธ ๋ฐ์ดํฐ์ ์ด ์ถฉ๋ถํ ์ ๋ขฐํ ๋งํ ๋ Perplexity ๊ฐ์ด ๋ฎ์์๋ก ์ธ์ด ๋ชจ๋ธ์ด ์ฐ์ํ๋ค๊ณ ํ๊ฐํฉ๋๋ค. ์ด์ ๋ํ ๋ด์ฉ์ ์ด์ด์ง๋ '2. Perplexity ๊ฐ์ ์๋ฏธ' ์น์ ์์ ๋์ฑ ์์ธํ ๋ค๋ฃน๋๋ค.1.2. ๋ถ๊ธฐ๊ณ์Perplexity๋ ๊ณง ์ธ์ด ๋ชจ๋ธ์ ..