728x90 반응형 softmax function1 밑바닥부터 시작하는 딥러닝 Chapter3 - 신경망 퍼셉트론에서 보았던 위 식을 다음과 같이 표현할 수 있다. 여기서 쓰인 h(x) 를 activation function (활성화 함수) 라고 부른다. 위 식은 step fucntion (계단 함수) 하고 하며 정리하면 "퍼셉트론에서는 활성화 함수로 계산함수를 이용한다" 가 된다. 활성화 함수는 step func, ReLU, sigmoid, softmax, tanh 등 여러가지가 있으며 nonlinear 하다는 특징이 있다. sigmoid 함수 x가 커지면 h(x) = 1 작아지면 h(x) = 0 hidden layer 에서는 activation function 으로 ReLU 를 주로 사용한다. 아웃풋의 종류가 classification (분류) 인 경우 마지막에 - 두가지만 나누는 binary 의 경우 .. 2022. 6. 14. 이전 1 다음 728x90 반응형