본문 바로가기
머신러닝

Batch Normalization & Overfitting & HyperParameter

by 후닝훈 2021. 4. 23.
반응형

Batch Normalization

Batch N 적용 X                                         Batch N 적용 O

- 각각의 layer 마다 평균과 표준편차를 다시 구한다.

- BN을 적용한다면, W1 후의 Layer의 입력값이 균등하지 않아도, 균등하게 해주는 역할을 함.

- 초기값 W에 따른 여러 그래프

- 초기값을 잘못 설정한 W라도 BN를 통해 옳바른 값을 찾아가는것을 볼 수 있음.

 

Overfitting

분류문제

- Training Set에 과하게 학습되는것.

- 제한된 데이터에만 정확하게 맞는것을 의미함.

- Model의 Parameter 개수가 많을때와 Data가 적을때 이 현상이 일어난다.

 

- 추가적으로 Underfit 이란, 데이터의 특성을 완전히 잡아내지 못한것을 의미한다.

 

 

Overffting 방지법

Regularization

- Loss 함수에 새로운 항을 붙인다.

- weight 값의 크기를 제한하는 방법이다. 

 

Regularization X                                                                Regularization O

- Regularization을 통해 train과 test의 정확도 간극이 좁아졌다.

- 정확도가 언제나 높게 나오는 것은 아니다.

 

Dropout

 

Hyperparameter

- Weights 값과 Bias (Parameter)를 결정하는데 필요한 모든 변수값을 지칭하는말

- Learning rates, Momentum, Batchsize, units in layers 가 있음.

 

Hyper parameter 지정방법

0. Hyperparameter의 값의 범위를 지정

1. 설정된 범위에서 HP의 값을 무작위로 추출

2. 위 단계로 설정된 값으로 학습 후 정확도 판단 (단, 작은 데이터로. 예) Mnist의 6만개 데이터중 천개)

3. 1~2단계를 반복하여 정확도 결과를 보고 결정.

예시 ) 

>> 많은 컴퓨팅 파워를 요구하는 방법임.

>> 적은 컴퓨팅 파워일 때에는 조금씩 러닝 레이트를 수시로 고쳐가며 계산하게 됨.

 

 

반응형

'머신러닝' 카테고리의 다른 글

Maximum likelihood Estimation 1  (0) 2021.05.15
머신러닝이란?  (0) 2021.05.14
Batch Normalization 2 & Well - Known Models & Recurrent Neural Network  (0) 2021.04.28
Initialization 2  (0) 2021.04.22
Optimizer 2  (0) 2021.04.21

댓글