- Today
- Total
λͺ©λ‘μ 체 κΈ (350)
DATA101

π‘ λͺ©ν μμ€ ν¨μμ κ°λ κ³Ό μκ³ λ¦¬μ¦ νμ΅μ μνμ μλ―Έμ λν΄ μμλ΄ λλ€. 1. μμ€ ν¨μμ κ°λ μμ€ ν¨μ(Loss Function)λ μ§λνμ΅(Supervised Learning) μ μκ³ λ¦¬μ¦μ΄ μμΈ‘ν κ°κ³Ό μ€μ μ λ΅μ μ°¨μ΄λ₯Ό λΉκ΅νκΈ° μν ν¨μμ λλ€. μ¦, 'νμ΅ μ€μ μκ³ λ¦¬μ¦μ΄ μΌλ§λ μλͺ» μμΈ‘νλ μ λ'λ₯Ό νμΈνκΈ° μν ν¨μλ‘μ¨ μ΅μ ν(Optimization)λ₯Ό μν΄ μ΅μννλ κ²μ΄ λͺ©μ μΈ ν¨μμ λλ€. κ·Έλμ μμ€ ν¨μλ₯Ό λͺ©μ ν¨μ(Objective Function)λΌκ³ λ λΆλ¦ λλ€. μ΄μΈμλ μμ€ ν¨μλ λΆμΌμ λ°λΌ λΉμ© ν¨μ(Cost Function), μλμ§ ν¨μ(Energy Function) λ±μΌλ‘ λ€μνκ² λΆλ₯΄κΈ°λ ν©λλ€. μμ€ ν¨μλ₯Ό ν΅ν΄ λͺ¨λΈ νμ΅ μ€μ μμ€(loss)μ΄ μ»€μ§μλ‘ ν..

π λͺ©μ°¨ 1. νμ±ν ν¨μμ κ°λ 2. νμ±ν ν¨μμ μ’ λ₯ 2.1. Sign ν¨μ 2.2. Sigmoid ν¨μ 2.3. Tanh ν¨μ 2.4. Softmax ν¨μ 2.5. ReLU ν¨μ 2.6. Leaky ReLU ν¨μ 1. νμ±ν ν¨μμ κ°λ νμ±ν ν¨μ(Activation Function)λ νΌμ νΈλ‘ (Perceptron)μ μΆλ ₯κ°μ κ²°μ νλ λΉμ ν(non-linear) ν¨μμ λλ€. μ¦, νμ±ν ν¨μλ νΌμ νΈλ‘ μμ μ λ ₯κ°μ μ΄ν©μ μΆλ ₯ν μ§ λ§μ§ κ²°μ νκ³ , μΆλ ₯νλ€λ©΄ μ΄λ€ κ°μΌλ‘ λ³ννμ¬ μΆλ ₯ν μ§ κ²°μ νλ ν¨μμ λλ€. νΌμ νΈλ‘ μ λν μμΈν λ΄μ©μ μ΄κ³³μ μ°Έκ³ ν΄ μ£ΌμΈμ. μλ κ·Έλ¦Ό 1μ λ ΈλμμΌλ‘ μμΉ ν λΆλΆμ΄ νΌμ νΈλ‘ μ νμ±ν ν¨μ λΆλΆμ λλ€. 2. νμ±ν ν¨μμ μ’ λ₯ 2.1. Sign ν¨μ μμ νΌμ ..

π λͺ©μ°¨1. μμΉ΄λ μ μ¬λ κ°λ 2. μμΉ΄λ μ μ¬κ³ μ€μ΅1. μμΉ΄λ μ μ¬λ κ°λ μμΉ΄λ μ μ¬λ(Jaccard Similarity)λ \(2\)κ°μ μ§ν© \(A\), \(B\)κ° μμ λ λ μ§ν©μ ν©μ§ν© μ€ κ΅μ§ν©μ λΉμ¨μ λλ€. μ¦, λ μ§ν©μ΄ μμ ν κ°μ λλ μμΉ΄λ μ μ¬λκ° \(1\)μ΄λ©°, λ μ§ν©μ κ΅μ§ν©μ΄ μλ κ²½μ°λ \(0\)μ λλ€. μμΉ΄λ μ μ¬λλ₯Ό \(J\)λΌκ³ ν λ λ μ§ν© κ°μ μμΉ΄λ μ μ¬λ μμμ μλμ κ°μ΅λλ€. $$ J(A, B) = \frac{|A \cap B|}{|A \cup B|} = \frac{|A \cap B|}{|A| + |B| - |A \cap B|} $$ μμΉ΄λ μ μ¬λ κ°λ μ μμ°μ΄μ²λ¦¬ λΆμΌλ‘ κ·Έλλ‘ κ°μ Έμ€λ©΄, νλμ μ§ν©μ΄ κ³§ νλμ λ¬Έμκ° ν΄λΉνλ κ²μ λλ€. ..

π λͺ©μ°¨1. μ ν΄λ¦¬λ 거리 κ°λ 2. μ ν΄λ¦¬λ 거리 μ€μ΅1. μ ν΄λ¦¬λ 거리 κ°λ μνμ κ΄μ μ κ·Όμ ν΄λ¦¬λ 거리(Euclidean Distance)λ λ μ μ¬μ΄μ 거리λ₯Ό κ³μ°νλ κΈ°λ²μ λλ€. λ μ \(p\)μ \(q\)κ° κ°κ° \((p_1, p_2, ..., p_n)\), \((q_1, q_2, ..., q_n)\) μ’νλ₯Ό κ°μ§ λ, λ μ μ¬μ΄μ 거리λ₯Ό μ ν΄λ¦¬λ 거리 곡μμΌλ‘ νννλ©΄ μλμ κ°μ΅λλ€. $$ \sqrt{(q_1 - p_1)^2 + (q_2 - p_2)^2 + ... + (q_n - p_n)^2} = \sqrt{\displaystyle\sum_{i=1}^{n}(q_i - p_i)^2}$$ λ€μ°¨μμ΄ μλ 2μ°¨μ 곡κ°μμ μ ν΄λ¦¬λ 거리λ₯Ό μ½κ² μμλ³΄κ² μ΅λλ€(κ·Έλ¦Ό 1 μ°Έκ³ ). λ μ \..

π λͺ©μ°¨1. μ½μ¬μΈ μ μ¬λ κ°λ 2. μ½μ¬μΈ μ μ¬λ μ€μ΅1. μ½μ¬μΈ μ μ¬λ κ°λ μ½μ¬μΈ μ μ¬λ(Cosine Similarity)λ λ λ²‘ν° μ¬μ΄μ κ°λλ₯Ό κ³μ°νμ¬ λ 벑ν°κ° μΌλ§λ μ μ¬νμ§ μΈ‘μ νλ μ²λμ λλ€. μ¦, DTM, TF-IDF, Word2Vec λ±κ³Ό κ°μ΄ λ¨μ΄λ₯Ό μμΉννμ¬ ννν μ μλ€λ©΄ μ½μ¬μΈ μ μ¬λλ₯Ό νμ©νμ¬ λ¬Έμ κ° μ μ¬λλ₯Ό λΉκ΅νλ κ² κ°λ₯ν©λλ€. μ½μ¬μΈ μ μ¬λλ \(1\)μ κ°κΉμΈμλ‘ λ 벑ν°κ° μ μ¬νλ€κ³ ν΄μνλ©°, λ¬Έμμ κΈΈμ΄κ° λ€λ₯Έ κ²½μ°μλ λΉκ΅μ 곡μ νκ² λΉκ΅ν μ μλ€λ μ₯μ μ΄ μμ΅λλ€. μλ κ·Έλ¦Ό 1κ³Ό κ°μ΄ λ 벑ν°κ° κ°μ λ°©ν₯μ κ°λ¦¬ν€λ, μ¦ λ λ²‘ν° μ¬μ΄μ κ°λκ° \(0^\circ\)μΌ λ μ½μ¬μΈ μ μ¬λκ° μ΅λκ°μΈ 1μ κ°μ΅λλ€. \(A\), \(B\)λΌλ λ 벑ν°κ°..

π λ€μ΄κ°λ©° λ³Έ ν¬μ€ν μμλ Boxplotλ₯Ό ν΄μνλ λ°©λ²μ λν΄ μμλ΄ λλ€. μλ κ·Έλ¦Ό 1κ³Ό κ°μ΄ μΈλ‘μΆμ νΉμ κ°μ λ²μλ₯Ό λνλ΄κ³ , μ΄ λ²μ λ΄μμ λ°μ΄ν°λ μ£Όλ‘ νλμ λ°μ€ μμ λΆν¬ν©λλ€. νλμ λ°μ€ κ°μ΄λ° λ Έλμ μ§μ μΌλ‘ νμν λΆλΆμ΄ λ°μ΄ν°μ μ€μκ°(Median)μ΄ λ©λλ€. λ°μ€ μ΅μλ¨μ μ 3 μ¬λΆμμ(Q3, 75th percentile), μ΅νλ¨μ μ 1 μ¬λΆμμ(Q1, 25th percentile)μ λλ€. μ¬λΆμμ(Quantile)λ μ 체 λ°μ΄ν°λ₯Ό μ€λ¦μ°¨μ μ λ ¬ν λ€μ 25%μ© λμΌν λΉμ¨λ‘ λ°μ΄ν°λ₯Ό λλ κ²μ λλ€. μ¦, μ 1 μ¬λΆμμ(Q1)λ κ°μ₯ μμ λ°μ΄ν°λΆν° μ 체 μ€ 25% λΉμ¨λ§νΌμ λ°μ΄ν°λ₯Ό(25%) μλ―Ένκ³ , μ 3 μ¬λΆμμ(Q3)λ μ€μκ°(50%)μμλΆν° 25% λΉμ¨λ§νΌμ λ°μ΄..

πλͺ©μ°¨1. λ±μ₯λ°°κ²½2. κ°λ 3. Sample μ μ 4. Word2Vec μ±λ₯1. λ±μ₯ λ°°κ²½Negative Sampling λ°©λ²μ Word2Vecμ CBOWμ Skip-gram λͺ¨λ λ¨μ΄ κ°μκ° λ§μμ§μλ‘ κ³μ° 볡μ‘λκ° μ¦κ°νμ¬ μ°μ° μλκ° μ νλλ€λ νκ³μ μ 보μνκΈ° μν΄ μ μλμμ΅λλ€. CBOWμ Skip-gramμ λͺ©μ ν¨μλ μλμ κ°μ΅λλ€. $$ \mathcal{L}_{CBOW} = -\sum_{j=1}^{|V|}y_{j}log(\hat{y}) $$ $$ \mathcal{L}_{Skip-gram} = -\sum_{j=0, j\ne{m}}^{2m}\sum_{k=1}^{|V|}y_{k}^{(c-j)}\log\hat{y_{k}}^{(c-j)} $$ μμμμ μ μ μλ―μ΄, CBOWμ Skip-..

πλͺ©μ°¨1. νμ΅ λ°μ΄ν°μ μμ± 2. μΈκ³΅μ κ²½λ§ λͺ¨ν 3. νμ΅ κ³Όμ 4. CBOW vs Skip-gram5. νκ³μ λ€μ΄κ°λ©°Word2Vecλ νμ΅λ°©μμ λ°λΌ ν¬κ² \(2\)κ°μ§λ‘ λλ μ μμ΅λλ€: Continuous Bag of Words(CBOW)μ Skip-gram. CBOWλ μ£Όλ³ λ¨μ΄(Context Word)λ‘ μ€κ°μ μλ λ¨μ΄λ₯Ό μμΈ‘νλ λ°©λ²μ λλ€. μ¬κΈ°μ μ€κ°μ μλ λ¨μ΄λ₯Ό μ€μ¬ λ¨μ΄(Center Word) λλ νκ² λ¨μ΄(Target Word)λΌκ³ λΆλ¦ λλ€. λ°λλ‘, Skip-gramμ μ€μ¬ λ¨μ΄λ₯Ό λ°νμΌλ‘ μ£Όλ³ λ¨μ΄λ€μ μμΈ‘νλ λ°©λ²μ λλ€. μ νμ°κ΅¬λ€μ λ°λ₯΄λ©΄, λμ²΄λ‘ Skip-gramμ΄ CBOWλ³΄λ€ μ±λ₯μ΄ μ°μνλ€κ³ μλ €μ Έ μλλ°, μ΄μ λν μμΈν λ΄μ©μ λ³Έ ν¬μ€ν μ 'Chapter 4..