Doyun-lab

[ML] Perceptron (νΌμ…‰νŠΈλ‘ ) λ³Έλ¬Έ

Study/Machine Learning

[ML] Perceptron (νΌμ…‰νŠΈλ‘ )

Doyun+ 2021. 6. 21. 22:10

π–―π–Ύπ—‹π–Όπ–Ύπ—‰π—π—‹π—ˆπ—‡

​

π–­π–Ύπ—Žπ—‹π—ˆπ—‡

= Dendrite에 μ—¬λŸ¬ 값듀이 λ„μ°©ν•˜λ©΄ ν•˜λ‚˜μ˜ μ‹ ν˜Έλ‘œ ν†΅ν•©ν•˜κ³ , μž„μ˜μ˜ μž„κ³„κ°’μ„ λ„˜κ²Œ 되면 이 값이 Axon을 톡해 μ „λ‹¬λœλ‹€λŠ” λ©”μ»€λ‹ˆμ¦˜ » λ‡Œμ„Έν¬

  • Net Input Function (μˆœμž…λ ₯ν•¨μˆ˜)

- μž…λ ₯κ°’ X의 n개의 Feature듀이 n+1개의 weight와 κ³±ν•˜μ—¬ summationλ˜μ–΄ ν•˜λ‚˜μ˜ μ‹ ν˜Έλ‘œ 톡합

Why n+1개 ? — λ§ˆμ§€λ§‰ 1κ°œλŠ” Bias (Prior μ—­ν• )

​

  • Activation Function (ν™œμ„±ν•¨μˆ˜)

- μˆœμž…λ ₯ν•¨μˆ˜μ˜ κ²°κ³Όκ°’μœΌλ‘œλΆ€ν„° 결과값을 μƒμ„±ν•˜λŠ” μž„μ˜μ˜ ν•¨μˆ˜

ex) μž„κ³„κ°’(threshold)와 λΉ„κ΅ν•˜μ—¬ -1 or 1의 κ²°κ³Όκ°’ 생성 (threshold보닀 μž‘μœΌλ©΄ -1)

​

 

π–―π–Ύπ—‹π–Όπ–Ύπ—‰π—π—‹π—ˆπ—‡

= λ‰΄λŸ°μ˜ μž„κ³„κ°’κ³Ό λΉ„κ΅ν•˜λŠ” 뢀뢄을 μƒλž΅ν•˜μ—¬ κ°„λ‹¨ν•˜κ²Œ ν‘œν˜„ν•΄ 3개의 측을 κ°€μ§€λŠ” ꡬ쑰

​

- 단측 Perceptronκ³Ό λ‹€μΈ΅ Perceptron > μ€‘κ°„μΈ΅μ˜ 개수 차이

- μ „λ‹¨κ³„μ˜ μΈ΅κ³Ό λ‹€μŒ 단계 μΈ΅ 두 layer의 전체 λ…Έλ“œμ™€ 빠짐없이 μ—°κ²°λ˜μ–΄ 있으면 — fully connected

- μž…λ ₯.좜λ ₯측은 μ§€λ„ν•™μŠ΅, 은닉측은 μ–΄λ–€ μž…λ ₯κ³Ό 좜λ ₯을 ν•˜λŠ”μ§€ μ•Œ 수 μ—†μ–΄ 은닉측

​

​

π–―π–Ύπ—‹π–Όπ–Ύπ—‰π—π—‹π—ˆπ—‡ 𝖫𝖾𝖺𝗋𝗇𝗂𝗇𝗀 π– π—…π—€π—ˆπ—‹π—‚π—π—π—†

​

​

β€‹π–―π–Ύπ—‹π–Όπ–Ύπ—‰π—π—‹π—ˆπ—‡ 𝖫𝖾𝖺𝗋𝗇𝗂𝗇𝗀 π– π—…π—€π—ˆπ—‹π—‚π—π—π—† π–΅π–Ίπ—‹π—‚π–Ίπ—π—‚π—ˆπ—‡

- μ•žμ˜ μ•Œκ³ λ¦¬μ¦˜μ€ λ°μ΄ν„°μ˜ 였차 정도λ₯Ό κ³ λ €ν•˜μ§€ μ•Šκ³  무쑰건 λ”ν•˜κ³  λΉΌ, 졜적의 W λͺ» 찾을 수 있음

​

  • κ°œμ„  방법

- ν•™μŠ΅λ₯ , 였차 정도λ₯Ό κ³ λ €ν•˜λ„λ‘ κ°œμ„ 

> W μ΄ˆκΈ°ν™” (ex : -0.5 ~ 0.5) — Bias x0의 값은 μž„μ˜μ˜ κ°’

> ν•™μŠ΅ 데이터 d = [d1, … , dn]을 Perceptron에 Forward Passing μ μš©ν•˜μ—¬, 좜λ ₯κ°’ threshold에 κΈ°λ°˜ν•˜μ—¬ 좜λ ₯κ°’ o μ–»μŒ

- 좜λ ₯κ°’ o : threshold보닀 크면 1, μž‘μœΌλ©΄ -1

- n : λ°μ΄ν„°μ˜ Feature Dimension

> μ •λ‹΅ y와 좜λ ₯ oλ₯Ό λΉ„κ΅ν•˜μ—¬ λ‹€λ₯Ό 경우(μ—λŸ¬), W += ν•™μŠ΅λ₯  * 데이터 d * (threshold — o)

> μ—λŸ¬κ°€ 없을 λ•ŒκΉŒμ§€ 반볡

​​

π–―π–Ύπ—‹π–Όπ–Ύπ—‰π—π—‹π—ˆπ—‡ 𝖫𝗂𝗆𝗂𝗍

- Perceptron Learning Algorithm은 Supervised Learning 방식이닀

- 단측 Perceptron은 μ„ ν˜• λΆ„λ₯˜λ°–에 λͺ»ν•œλ‹€ (XOR 문제 ν’€μ§€λͺ»ν•¨)

​​

π–―π–Ύπ—‹π–Όπ–Ύπ—‰π—π—‹π—ˆπ—‡ 𝖠𝗋𝗋𝖺𝗇𝗀𝖾𝗆𝖾𝗇𝗍

- 생성적이닀 (μ™Όμͺ½μ—μ„œ 였λ₯Έμͺ½μœΌλ‘œ μƒμ„±λ˜μ–΄ λ‚˜κ°„λ‹€)

- Intra-layer Independence (μΈ΅λ‚΄ 독립), Not Controlable

- μ„€λͺ…이 λΆˆκ°€λŠ₯ν•˜λ‹€