- 학습이란
학습이란 모델이 정답을 찾을 수 있는 가장 알맞는 매개변수들을 찾아나가는 과정 - 학습의 지표와 목표
모델이 최적 매개변수를 찾아나가기 위해서 사용하는 기준 = 손실 함수
손실 함수는 오답일 때 그 값이 커지므로 손실 함수값을 작게 만들 수 있는 매개변수를 만들어야 함 - 기계학습 vs 딥러닝
예를 들어 이미지 데이터를 학습할 때, 기계학습은 사람이 이미지 데이터의 특징을 먼저 파악해 이미지를
어떻게 효율적으로 벡터로 표현할 수 있을지 설계하고 이 벡터를 다시 기계가 특정 알고리즘을 통해
학습한다. 반면에 딥러닝은 사람이 데이터의 특징을 파악하는 과정이 생략된 것이다.
( = 종단간 기계학습 : 처음부터 끝까지 사람이 개입하지 않고, 기계가 학습하는 것 ) - 오버피팅
모델을 학습할 때, 학습 데이터에만 매몰되지 않고 범용적인 데이터로도 알맞은 정답을 맞출 수 있는 모델이
좋은 모델이라고 할 수 있다. 그렇지 않고 학습 데이터에만 최적화된 상태는 오버피팅이라고 한다. - 손실함수
손실함수는 신경망의 결과값이 현재 정답에서 얼마나 멀어져있는지 즉 얼마나 오답을 말하고 있는지
나타내는 지표이다. 보통은 손실함수의 값이 커질수록 오답을 말한다고 할 수 있고, 이 특성을 활용해
좋고 나쁨을 여러가지 방법으로 표현할 수 있다.
대표적으로 오차제곱합 ( SSE ) , 교차엔트로피오차 ( CEE ) 등이 있다. - 미니배치 학습
모델을 학습할 때 전체 데이터를 계산하려고 하면 힘든 경우가 많을 것이다. ( 자원의 문제 등 )
예를 들어 60000개의 데이터를 한번에 학습하는 것이 아니라, 60000개의 데이터 중 100개의 데이터
즉 일부의 데이터만 떼와서 학습해나가는 것이 미니배치 학습이다.
# 참조
밑바닥부터 시작하는 딥러닝
'인공지능 > 이론 정리' 카테고리의 다른 글
편미분 그라디언트 함수 구현 - 기울기, 경사법 (0) | 2022.01.11 |
---|---|
배치용 교차 엔트로피 오차 구현하기 (0) | 2022.01.11 |
밑바닥부터 시작하는 딥러닝 : MNIST 데이터 Google Colab 에서 로드하기 (0) | 2022.01.09 |
softmax 함수와 데이터 처리 및 학습 (0) | 2022.01.06 |
신경망과 퍼셉트론, 그리고 활성화 함수 (1) | 2022.01.03 |