본문 바로가기
머신러닝

Maximum likelihood Estimation 2

by 후닝훈 2021. 5. 16.
반응형

Maximum Likelihood Estimation

Pdata x : 모집단

X = x개를 랜덤으로 추출. 샘플링

위 결과를 토대로

- Traning Data가 많아지면 모델이 정확해진다.

- Traning Data가 많아지면 일반화가 더 빨린된다.

- Consistency : i -> 무한대 인 경우,  model과 실제 data간의 차이가 없어진다.

아래 두조건을 만족해야한다.

- data의 분포 종류가 모델의 분포종류와 같아야 한다.

- data의 분포의 세타가 정확히 하나의 값에 대응되어야한다. (여러개의 Normal Distribution에 대응하면 안됨)

Statistical efficiency

- 같은 Generalization Error 에 따른 필요 m의 수

- Generalization Error : Training Accuracy - Test Accuracy

단점

- Traning Data 에만 의존한다.

Classification & MLE

 

 

- Likelihood의 최대값을 찾는것은 Cross-entropy의 최소값을 찾는것과 같다.

따라서

-> Training Data 가 많아지면 모델이 정확해지고 일반화가 더 빨리된다

-> Training Data에만 맞게된다.

분류문제의 Cross-entropy loss function은 MLE의 이론적인 배경을 가지고 있다. 따라서 CLF은 MLE의 수학적인 특성을 가지고 있다.

Regression & MLE

Y값들이 Continuous 하다.

Classification에서는 유닛들이 여러개였고, 가장 원하는 레이블의 확률을 높이는게 목적이었다.

Regression은 결과값(Y')이 Y의 값과 가까워야 하는 것이다. Class 분류가 목적이라고 할 수 있다.

 

아래 그림의 Line의 좌표값들의 제곱의 값 합이 가장 적게 되는것을 찾는것이 MLE가 됨.

 

MLE는 통계학적 모델에서, 모델을 개발하고 모델을 정의할때 필요한 파라미터들을 계산하는것.

모집단을 샘플링을 하여 큰 집단을 예측하는데 MLE가 필요하다.

반응형

'머신러닝' 카테고리의 다른 글

Maximum A Posteriori Estimation  (0) 2021.05.27
Bayesian Estimation  (0) 2021.05.26
Maximum likelihood Estimation 1  (0) 2021.05.15
머신러닝이란?  (0) 2021.05.14
Batch Normalization 2 & Well - Known Models & Recurrent Neural Network  (0) 2021.04.28

댓글