활성화함수 2

신경망 학습 : 손실함수, 활성화함수, 파라미터

활성화함수 활성화함수는 신경망으로 계산한 입력신호의 모든 합을 각 함수식에 맞게 처리해 출력값으로 변환해주는 역할을 한다. 활성화함수를 사용하는 이유는, 출력값을 비선형의 형태로 바꾸기 위해서이다. 비선형으로 만들어주는 이유는 선형 구조에 문제가 있기 때문이다. 여러개의 선형식 레이어를 아무리 쌓아도 하나의 선형식으로 표현할 수 있기에 비선형 함수를 사용해주어야 한다. 라고 하는데 사실 이해가 완벽하게 되지 않았다. 히든 레이어에서 가중치와 노드값, 편향값들을 어떻게 더하고 곱할지 구성하고 계산하는 것만으로는 비선형식을 만들 수 없는 것일까? 이 부분이 더 궁금해서 찾아보았다. 그리고 그 예측이 맞았다. Geeks for Geeks 라는 해외 사이트에서 활성화함수에 대해 설명한 글을 찾아보았는데, "A ..

신경망과 퍼셉트론, 그리고 활성화 함수

신경망 신경망은 입력층, 은닉층, 출력층으로 이루어짐 입력 신호를 받아서 은닉층에서 연산하고, 이를 출력하는 구조 활성화 함수 활성화 함수란 입력층, 은닉층을 통해 계산된 값을 출력값으로 만들어내는 함수 특정 기준이나 함수를 가지고 출력물을 어떻게 뱉어낼지 정의한다. 계단 함수 앞에서 공부한 퍼셉트론에서 사용되었던 활성화 함수 특정 임계값을 넘느냐, 넘지 않느냐에 따라 0, 1의 출력값을 뱉어낸다. 시그모이드 함수 계단 함수와는 다르게 exp 연산을 함께 사용하여, 0, 1 의 값이 아닌 연산 후의 실수 값을 뱉어낸다. 렐루 함수 입력값이 0 보다 작으면 0을, 그렇지 않으면 입력값 그 자체를 돌려주는 함수이다. 퍼셉트론과 신경망의 차이? 퍼셉트론과 신경망의 차이는 활성화 함수이다. 퍼셉트론은 계단함수와..