lierre

메트로폴리스 헤이스팅스 예제

(q(ymid x))는 (x) 및 (y)에서 대칭이기 때문에, 메트로폴리스-헤이스팅스...

02 Août

(q(ymid x))는 (x) 및 (y)에서 대칭이기 때문에, 메트로폴리스-헤이스팅스 수용비율 (alpha(ymid x))은 메트로폴리스 알고리즘으로 단순화되며, 일반 메트로폴리스-헤이스팅스 알고리즘(Hoff, 2009)의 특별한 경우이다. 주요 차이점은 메트로폴리스-헤이스팅스 알고리즘에 대칭 분포 요구 사항이 없다는 것입니다(위의 2단계). 대칭 분포를 사용하는 경우 R(4단계)을 조정해야 합니다(Gelman, 2013): 특히 초기 시작점이 목표에서 벗어난 경우 메트로폴리스 알고리즘이 느려질 수 있습니다. 비대칭 제안 분포(예: 보다 일반적인 메트로폴리스-헤이스팅스 알고리즘 사용)를 사용하면 프로세스 속도가 빨라질 수 있습니다. 메트로폴리스 알고리즘은 지정된 대상 분포에 수렴하는 수락-거부 샘플링과 결합된 임의 걷기 적응입니다(Gelman et al., 2013). 메트로폴리스 알고리즘(대칭 제안 분포) 반면에 가장 간단한 거부 샘플링 방법은 « 차원의 저주 »로 고통받고 있으며, 여기서 거부 확률은 차원 수의 함수로서 기하급수적으로 증가합니다. 메트로폴리스-헤이스팅스는 다른 MCMC 방법과 함께 이러한 정도의 문제가 없으므로 샘플링할 분포의 치수 수가 많을 때 사용할 수 있는 유일한 솔루션이 되는 경우가 많습니다. 그 결과, MCMC 방법은 종종 계층 적 베이지안 모델및 많은 분야에서 요즘 사용되는 다른 고차원 통계 모델에서 샘플을 생산하기위한 선택의 방법입니다. 메트로폴리스-헤이스팅스 알고리즘은 위의 두 가지 조건을 충족하는 Markov 프로세스(전환 확률을 생성하여)를 설계하는 것을 포함하며, 이러한 고정 분포 π (x) {displaystyle pi(x)}가 P (x) {displaystyle P로 선택되도록 합니다. (x)} . 알고리즘의 파생은 세부 균형의 조건으로 시작: 메트로폴리스-헤이스팅스 알고리즘의 목적은 원하는 분포 P (x) {displaystyle P(x)}에 따라 상태 컬렉션을 생성하는 것입니다.

이를 위해 알고리즘은 고유 고정 분포 π (x) {displaystyle pi (x)}에 도달하는 Markov 프로세스를 사용합니다. [15] 샘플링된 가장 최근의 값이 x {디스플레이 스타일 x_{t}}라고 가정합니다. 메트로폴리스-헤이스팅스 알고리즘을 따르려면, 우리는 다음 확률 밀도 g (x′ | x t) {displaystyle g (x`|x_{t})와 함께 새로운 제안 상태 x를 그립니다.} 및 값을 계산 메트로폴리스-헤이스팅스 알고리즘은 어떤에서 샘플을 그릴 수 있습니다. 확률 분포 P (x) {displaystyle P(x)} 함수의 값이 P {displaystyle P}의 밀도에 비례하여 함수 f (x) {displaystyle f(x)}의 값을 계산할 수 있는 경우[설명필요]. f (x) {displaystyle f(x)}가 정확히 동일하지 않고 밀도에 비례해야 한다는 요구 사항은 필요한 정규화 계수를 계산하는 것이 매우 중요하기 때문에 Metropolis-Hastings 알고리즘을 특히 유용하게 만듭니다. [인용이 필요]. 표준 메트로폴리스 알고리즘은 단일 단계로 전체 파라미터 벡터를 한 번에 업데이트합니다. 따라서 (p) 차원 매개변수 벡터에는 (p) 차원 제안 분포 (q)가 있어야 합니다.