본문 바로가기
머신러닝

Bayesian Estimation

by 후닝훈 2021. 5. 26.
반응형

Bayesian's Theorem

B가 고정되어있을때 A인 확률 = A가 고정되어있을때 B의 확률 * A확률 / B확률 = (B중 A인 확률)

예시)

 

Model Estimation

P(A|B) = P(θ|x)

A = Model의 파라미터 (예 : 가우시안 분포 - 평균, 표준편차, NN - Weight, Bias) = θ

B = sample(예 : 학습데이터. 이미지, 음성 등) = x

P(B|A) = P(x|θ) : Likelihood

파라미터가 주어졌을때, 그 때의 x의 확률.

모델이 주어진 상태에서, 그 때의 x의 확률.

P(x)

1차원 데이터에서의 x확률. 실제 샘플이 어떻게 분포되어있는지 설명하는 값.

P(θ)

예를들어 Normal Distribution에서의 θ는 표준편차와 평균이다.

2차원의 값이지만 평균만 생각해보자.

그러면 θ는 여러개의 평균 값이다.

θ는 하나의 모델이고, P(θ)는 어떠한 한 평균을 가지고 있을 확률을 얘기하는 것이다.

예를들어 몸무게의 평균이 50kg 인 모델이고, 이것이 여러가지 모델 중 하나의 확률이 P(θ) 다.

θ : 모델. 모델의 파라미터.

x축의 한 지점이 정해지면 주어진 모델에 따른 P of x ( p(x|θ) ) 가 결정된다.

 

정리하자면, P(세타) 는 주어진 여러개의 모델 중 특정 파라미터 값을 가질 확률이다.

모델이 여러개 -> 모두 같은 확률을 갖는 것이 아니다.가중치를 통해 중요한 모델을 더 많이 반영한다)

-> 특정 파라미터 값을 갖는 모델이 더 유리하다.

또한 주어지는 것이 아닌 관측자가 예상하는 것이다.

Model과 P(x|θ)

P(x|θ) : 하나의 점이 아닌 연속된 값임. 여러가지 모델이 연속적으로 존재. 한 지점이자 x축의 x값.

y값은 model1, model2, model3, model4의 각각의 중요도의 확률이다.

 

Bayesian Estimation

- MLE : 데이터가 주어져 있고, 그 데이터를 가장 잘 설명하는 모델.

- BE(MPE) : 기본적으로 예측한 결과값&실제 관측한 결과값의 연관관계를 계산한 것

반응형

'머신러닝' 카테고리의 다른 글

Long Short - Term Memory  (0) 2021.06.02
Maximum A Posteriori Estimation  (0) 2021.05.27
Maximum likelihood Estimation 2  (0) 2021.05.16
Maximum likelihood Estimation 1  (0) 2021.05.15
머신러닝이란?  (0) 2021.05.14

댓글