Gibbs Sampling과 MH Sampling 공통점과 차이점 정리

Gibbs Sampling과 MH Sampling 공통점과 차이점 정리
Photo by Eduardo Soares / Unsplash

공통점

  • MCMC 알고리즘: 두 알고리즘 모두 마르코프 체인을 사용하여 확률 분포에서 샘플링합니다. 마르코프 체인은 과거 상태만 고려하여 다음 상태를 결정하는 확률적 모델입니다.
  • 베이즈 추론: 두 알고리즘 모두 베이즈 추론에서 사후 분포를 추정하는 데 사용됩니다. 베이즈 추론은 사전 정보와 관측 데이터를 결합하여 사후 분포를 계산하는 방법입니다.

차이점

  • 제안 분포: 깁스 샘플링은 각 변수의 조건부 분포를 제안 분포로 사용합니다. 반면에 메트로폴리스-헤이스팅스 샘플링은 임의의 제안 분포를 사용할 수 있습니다.
  • 수락 확률: 깁스 샘플링은 항상 새로운 샘플을 받아들입니다. 반면에 메트로폴리스-헤이스팅스 샘플링은 새로운 샘플을 받아들이는지 거부하는지 확률에 따라 결정합니다.

동전던지기 예시

  • 동전을 10번 던졌을 때 앞면이 5번 나왔다고 가정해봅시다. 동전의 앞면이 나올 확률을 추정하기 위해 베이즈 추론을 사용할 수 있습니다.

  • 깁스 샘플링

    • 초기값 설정: 앞면이 나올 확률에 대한 초기값을 설정합니다. 예를 들어, 0.5로 설정할 수 있습니다.
    • 반복: 다음 단계를 10번 반복합니다.
    • 조건부 분포 계산: 앞면이 나올 확률의 조건부 분포를 계산합니다. 이 경우, 이항 분포를 사용합니다.
    • 샘플링: 조건부 분포에서 새로운 샘플을 추출합니다.
    • 결과: 추출된 샘플들을 사용하여 앞면이 나올 확률의 사후 분포를 추정합니다.
  • 메트로폴리스-헤이스팅스 샘플링

    • 다음은 동전 던지기 예시입니다. 동전을 10번 던졌을 때 앞면이 5번 나왔다고 가정
    • 초기값 설정 및 제안분포는 Gibbs와 동일
      • 목표 분포: 베타 분포 Beta(α,β)
      • 제안 분포: 현재 상태 θ에서 평균이 θ, 분산이 σ2인 정규 분포
    • 반복: 다음 단계를 10번 반복합니다.
      • 새로운 샘플 제안: 정규 분포에서 새로운 샘플 θ′를 추출합니다.
      • 수락 확률 계산: 다음과 같이 수락 확률 α(θ,θ′)를 계산합니다.
        • $α(θ, θ') = min{1, \frac{Beta(\theta' + \alpha - 1, \beta + n - \theta' - 1)}{Beta(\theta + \alpha - 1, \beta + n - \theta - 1)} \cdot \frac{N(\theta | \theta', \sigma^2)}{N(\theta' | \theta, \sigma^2)}}$
      • 샘플 수락/거부: 균일 무작위 변수 u를 0과 1 사이에서 추출하고, u≤α(θ,θ′)인지 확인합니다.
        • u≤α(θ,θ′): 새로운 샘플 θ′를 받아들입니다.
        • u>α(θ,θ′): 새로운 샘플 θ′를 거부하고 현재 상태 θ를 유지합니다.
    • 결과: 추출된 샘플들을 사용하여 앞면이 나올 확률의 사후 분포를 추정합니다.
      • 위의 과정을 10번 반복하여 θ의 사후 분포를 추정합니다.

🗃️ Reference

Read more

다중공선성은 잘못된 인과추론 결과를 만들어낼 수 있습니다.

다중공선성은 잘못된 인과추론 결과를 만들어낼 수 있습니다.

다중공선성(Multi Collinearity) * **Multi-Collinearity(다중공선성)**는 독립 변수들 간의 강한 상관관계가 존재할 때 발생합니다. 즉, 한 독립 변수가 다른 독립 변수에 의해 설명될 수 있을 정도로 상관관계가 높은 상황을 의미합니다. * 이 문제는 주로 회귀 분석에서 나타나며, 변수들 간의 관계를 해석하는 데 있어 큰 장애물이 될 수 있습니다. * 일반적인 회귀식을 $Y=

Bayesian P-Value는 불확실성을 감안하여 모델의 적합도를 평가합니다.

Bayesian P-Value는 불확실성을 감안하여 모델의 적합도를 평가합니다.

Bayesian P- Value * Bayesian P-Value는 **모델의 적합도(goodness-of-fit)**를 평가하는 데 사용됩니다. * 사후 분포(posterior distribution)를 이용하여 실제 데이터와 모델이 생성한 예상 데이터를 비교함으로써, 관측된 데이터가 모델에 의해 얼마나 잘 설명되는지를 평가합니다. * 빈도주의 p-값은 "관찰된 데이터보다 극단적인 데이터가 나올 확률"을 계산하지만, Bayesian P-Value는 "모델이 실제

Non-Identifiability는 Model Parameter를 고유하게 식별할 수 없는 현상입니다.

Non-Identifiability는 Model Parameter를 고유하게 식별할 수 없는 현상입니다.

Non Identifiability * Non-Identifiability는 주어진 데이터와 모델에 대해 특정 파라미터를 고유하게 식별할 수 없는 상황을 의미합니다. 즉, 여러 파라미터 값들이 동일한 데이터를 생성할 수 있으며, 이로 인해 특정 파라미터 값을 확정적으로 추정하기 어렵게 됩니다. * 베이지안 추론에서 Non-Identifiability는 사후 분포가 특정 파라미터 값에 대해 명확하게 수렴하지 않고, 여러 값들에 대해 비슷한 확률을

Rootgram은 큰 분산을 갖거나 비정규 형태의 데이터를 위한 히스토그램입니다.

Rootgram은 큰 분산을 갖거나 비정규 형태의 데이터를 위한 히스토그램입니다.

Rootgram * 히스토그램의 변형으로 데이터가 비정규적이거나 큰 분산을 가지는 경우, 정확한 분포를 파악하기 위해 사용됩니다. * 일반적으로 히스토그램은 데이터의 빈도를 직접적으로 나타내기 때문에, 큰 값이 빈번하게 발생하는 경우 상대적으로 작은 값을 잘 드러내지 못하는 경향이 있습니다. 반면, Rootgram은 빈도를 제곱근 형태로 변환하여, 데이터 분포의 차이를 더 잘 시각화할 수 있도록 돕습니다 * 여기서