- π Hello and welcome to my blog!
- I’m thrilled to have you join us on a fascinating journey through the ever-evolving world of technology.
- Here at my blog, we’re passionate about unraveling the complexities of the tech world and presenting them in an accessible, engaging way.
- Whether you’re a seasoned tech enthusiast, a curious newcomer, or somewhere in between, you’ll find a treasure trove of insights here.
- Happy exploring!
Loss Function
λ₯λ¬λμμ μμ€ ν¨μ(Loss Function)μ λͺ¨λΈμ μμΈ‘ κ°κ³Ό μ€μ κ° μ¬μ΄μ μ°¨μ΄λ₯Ό μμΉλ‘ νννλ ν¨μμ΄λ€. μ΄ ν¨μλ λͺ¨λΈμ΄ μΌλ§λ μ(λλ λͺ») μμΈ‘νλμ§ νκ°νλ μ²λκ° λλ€. μμ€ ν¨μλ λ€μκ³Ό κ°μ μν μ νλ€. μ€μ°¨ μΈ‘μ : λͺ¨λΈμ μΆλ €κ³Ό μ€μ μ λ΅ κ° μ°¨μ΄λ₯Ό κ³μ°νμ¬, λͺ¨λΈμ μ±λ₯μ μ λμ μΌλ‘ νκ°νλ€. λͺ¨λΈ μ΅μ ν: μμ€ κ°μ μ΅μννκΈ° μν΄ κ²½μ¬ νκ°λ²(Gradient Descent) λ±μ μ΅μ ν μκ³ λ¦¬μ¦μ μ¬μ©ν΄ λͺ¨λΈμ κ°μ€μΉλ₯Ό μ λ°μ΄νΈ νλ€. μμ€ ν¨μλ λ¬Έμ μ νμ λ°λΌ κ²°μ λ μ μλ€. SSE(Sum of Squares for Error) μ€μ°¨μ κ³±ν©(SSE, Sum of Squares for Error)μ κ° λ°μ΄ν° μνμ μμΈ‘ μ€μ°¨λ₯Ό μ κ³±νμ¬ λͺ¨λ ν©ν κ°μ΄λ€....
MNIST
μ΄λ―Έ νμ΅λ λ§€κ°λ³μλ₯Ό μ¬μ©νλ―λ‘, νμ΅ κ³Όμ μ μλ΅νκ³ μΆλ‘ κ³Όμ λ§ κ΅¬νν κ²μ΄λ€. μ΄ μΆλ‘ κ³Όμ μ μ κ²½λ§μ μμ ν(forward propagation)λΌκ³ νλ€. μ κ²½λ§μ λ λ¨κ³λ₯Ό κ±°μ³ λ¬Έμ λ₯Ό ν΄κ²°νλ€. λ¨Όμ νλ ¨ λ°μ΄ν°λ₯Ό μ¬μ©ν΄ κ°μ€μΉ λ§€κ°λ³μλ₯Ό νμ΅νκ³ , μΆλ‘ λ¨κ³μμ μμ νμ΅ν λ§€κ°λ³μλ₯Ό μ¬μ©ν΄ μ λ ₯ λ°μ΄ν°λ₯Ό λΆλ₯νλ€. MNIST λ°μ΄ν°μ MNIST λ°μ΄ν°μ μ 0λΆν° 9κΉμ§μ μ«μλ‘ μ΄λ―Έμ§λ‘ ꡬμ±λλ€. νλ ¨ μ΄λ―Έμ§μ μν μ΄λ―Έμ§κ° μ€λΉλμ΄ μλ€. MNISTμ μ΄λ―Έμ§λ $28 \times 28$ ν¬κΈ°μ μ΄λ―Έμ§(1μ±λ)μ΄λ©°, κ° ν½μ μ 0~255κΉμ§μ κ°μ μ·¨νλ€. κ° μ΄λ―Έμ§λ κ·Έ μ΄λ―Έμ§κ° μ€μ μλ―Ένλ μ«μκ° λ μ΄λΈλ‘ μλ€....
Neural Network
볡μ‘ν μ²λ¦¬λ νΌμ νΈλ‘ μΌλ‘ (μ΄λ‘ μ) ννν μ μλ€. κ·Έλ¬λ κ°μ€μΉλ₯Ό μ€μ νλ μμ μ μλμΌλ‘ ν΄μ£Όμ΄μΌ νλ€. κ°μ€μΉ λ§€κ°λ³μμ μ μ ν κ°μ λ°μ΄ν°λ‘λΆν° μλμΌλ‘ νμ΅νλ λ₯λ ₯μ μ κ²½λ§μ μ€μν μ±μ§μ΄λ€. μ κ²½λ§ $x_1$κ³Ό $x_2$ λ μ νΈλ₯Ό μ λ ₯λ°μ $y$λ₯Ό μΆλ ₯νλ νΌμ νΈλ‘ μ΄ μλ€κ³ νμ. μ΄ νΌμ νΈλ‘ μ μμμΌλ‘ λνλ΄λ©΄ $$ y = \begin{cases} 0 \space (b + w_1x_1 + w_2x_2 \le 0) \newline 1 \space (b + w_1x_1 + w_2x_2 \gt 0) \end{cases} $$ $b$λ νΈν₯μ λνλ΄λ λ§€κ°λ³μλ‘, λ΄λ°μ΄ μΌλ§λ μ½κ² νμ±νλλμ§λ₯Ό μ μ΄νλ€....
Neural Network Training
νμ΅μ΄λ νλ ¨ λ°μ΄ν°λ‘λΆν° κ°μ€μΉ λ§€κ°λ³μμ μ΅μ κ°μ μλμΌλ‘ νλνλ κ²μ μλ―Ένλ€. λ°μ΄ν° νμ΅ λ°μ΄ν°μμ νμ΅νλ€λ μλ―Έλ κ°μ€μΉ λ§€κ°λ³μμ κ°μ λ°μ΄ν°λ₯Ό ν΅ν΄ μλμΌλ‘ κ²°μ νλ€λ κ²μ΄λ€. λ°μ΄ν° μ£Όλ νμ΅ κΈ°κ³νμ΅μ λ°μ΄ν°μμ λ΅μ μ°Ύκ³ λ°μ΄ν°μμ ν¨ν΄μ λ°κ²¬νκ³ λ°μ΄ν°λ‘ μ΄μΌκΈ°λ₯Ό λ§λ λ€. λ°λΌμ κΈ°κ³νμ΅μ μ€μ¬μλ λ°μ΄ν°κ° μ‘΄μ¬νλ€. κΈ°κ³νμ΅μμλ μ¬λμ κ°μ μ μ΅μννκ³ μμ§ν λ°μ΄ν°λ‘λΆν° ν¨ν΄μ μ°ΎμΌλ €κ³ μλνλ€. μ κ²½λ§κ³Ό λ₯λ¬λμ κΈ°μ‘΄ κΈ°κ³νμ΅μμ μ¬μ©νλ λ°©λ²λ³΄λ€ μ¬λμ κ°μ μ λμ± λ°°μ ν μ μκ² ν΄μ£Όλ νΉμ±μ μ§λ λ€. β5βλΌλ μ«μλ₯Ό μΈμνλ νλ‘κ·Έλ¨μ ꡬννλ€κ³ νμ....
Perceptron
νΌμ νΈλ‘ μ΄λ? νΌμ νΈλ‘ μ λ€μμ μ νΈλ₯Ό μ λ ₯λ°μ νλμ μ νΈλ₯Ό μΆλ ₯νλ€. νΌμΌνΈλ‘ μ νΈλ βνλ₯Έλ€/μ νλ₯Έλ€(1 λλ 0)βμ λ κ°μ§ κ°μ κ°μ§ μ μλ€. $x$λ μ λ ₯κ°μ μλ―Ένλ©°, $W$λ κ°μ€μΉ, $y$λ μΆλ ₯κ°μ΄λ€. κ·Έλ¦Ό μμ μμ μΈκ³΅ λ΄λ°μ ν΄λΉνλ€. κ° μΈκ³΅ λ΄λ°μ 보λ΄μ§ μ λ ₯κ° $x$λ κ°κ°μ κ°μ€μΉ $W$μ ν¨κ» μΈκ³΅ λ΄λ°μ μ λ¬λλ€. κ°κ°μ μ λ ₯μ κ°μ€μΉκ° μ‘΄μ¬νλλ°, μ΄λ κ°μ€μΉ κ°μ΄ ν¬λ©΄ ν΄μλ‘ ν΄λΉ μ λ ₯κ°μ΄ μ€μνλ€λ μλ―Έκ° λλ€. κ° μ λ ₯κ°μ΄ κ³±ν΄μ Έ μΈκ³΅ λ΄λ°μ 보λ΄μ§κ³ , κ° μ λ ₯κ°κ³Ό κ·Έμ ν΄λΉλλ κ°μ€μΉ κ³±μ μ 체 ν©μ΄ μκ³μΉ(threshold)λ₯Ό λμΌλ©΄ μ’ μ°©μ§μ μλ μΈκ³΅ λ΄λ°μ μΆλ ₯ μ νΈλ‘ 1μ μΆλ ₯νκ³ , κ·Έλ μ§ μμΌλ©΄ 0μΌλ‘ μΆλ ₯νλ€....