퍼셉트론(Perceptron) (1)
$x$ 값들은 주어진 데이터 $ x_{1}, x_{2}, x_{3}, \, ... \, x_{d} $ $ \omega $로 이루어진 선형결합이라 생각하면(가정하면) 직업의 가중치가 10 ($ w_{1} $) 성별의 가중치가 1 ($ w_{2} $) 수입의 가중치가 9..
yjam.tistory.com
퍼셉트론(Perceptron) (2)
2차원에서 $ \omega $의 의미가 무엇인가? bias를 $ w_{0} $로 표현을 했음. $ \omega $ 는 parameter이고 $ x $는 data이다. 기하학적으로 $ g(x) = w_{1}x_{1} + w_{2}x_{2} + w_{0} $로 표현할 수 있다. $g(x)$..
yjam.tistory.com
퍼셉트론(Perceptron) (3)
$ \omega $와 $x$가 위와 같을 때 $ g(x) $가 위와 같이 표현된다. 직선 $ g(x) = 0$과 Sign(부호)과의 관계는 다음과 같다. $h$가 양수이면 $g(x)$도 양수이다. $sign(g(x))$ 에 따라서 +1, -1이 나오므로... b..
yjam.tistory.com
수식적으로 접근하면...
$ y=+1$로 오분류된 경우를 예로 들자.
그렇다면 현재 지금의 $ \omega $는 $ \textcolor { red} {w^T_{old}x_{n}} < 0 $일 것이다.
$ \omega $를 다음과 같이 업데이트 해줘야 한다.
$ \omega_{new} = \omega_{old} + y_{n}x_{n} = \omega_{old} + (+1)x_{n} $
새로운 $ \omega $에 오분류된 데이터 $ x_{n}$를 계산해보면
$ \omega_{new} = \omega_{old} + x_{n} $ 이므로...
$ \omega_{new}^{T}x_{n} = (\omega_{old} + x_{n})^{T}x_{n} = \omega^{T}_{old} x_{n} + x^{T}_{n} x_{n} $
$ \textcolor {red} { \omega^{T}_{old} x_{n} } $은 위의 $ \textcolor { red} {w^T_{old}x_{n}} < 0 $ 와 같다.
$ x^{T}_{n}x_{n} $는 자기 자신을 곱하므로 $ \parallel x \parallel^{2} $ 로 항상 양수이다.
즉, $ \omega^{T}_{new} x_{n} $은 $ \omega^{T}_{old} x_{n} $보다 less negative하다.
항상 양수인 것을 더하므로~
퍼셉트론의 다이아그램
'머신러닝과 딥러닝' 카테고리의 다른 글
이미지에서의 콘볼루션 (0) | 2020.01.06 |
---|---|
콘볼루션의 정의와 예시 (0) | 2020.01.06 |
퍼셉트론(Perceptron) (3) (0) | 2020.01.06 |
퍼셉트론(Perceptron) (2) (0) | 2020.01.04 |
퍼셉트론(Perceptron) (1) (0) | 2020.01.04 |