next up previous
Next: 2 Muestreo de Gibbs Up: 2 Monte Carlo vía Previous: 2 Monte Carlo vía

1 Algoritmo de Metropolis-Hastings

Este algoritmo construye una cadena de Markov apropiada definiendo las probabilidades de transición de la siguiente manera.

Sea $Q(\bmath{\theta}^* \vert \bmath{\theta})$ una distribución de transición (arbitraria) y definamos

\begin{displaymath}
\alpha(\bmath{\theta}^*, \bmath{\theta}) = \min \left\{ \fra...
...x}) \, Q(\bmath{\theta}^* \vert \bmath{\theta})},
1 \right\}.
\end{displaymath}

Algoritmo. Dado un valor inicial $\bmath{\theta}^{(0)}$, la $t$-ésima iteración consiste en:

1. generar una observación $\bmath{\theta}^*$ de $Q(\bmath{\theta}^* \vert \bmath{\theta}^{(t)})$;

2. generar una variable $u \sim U(0,1)$;

3. si $u \leq \alpha(\bmath{\theta}^*, \bmath{\theta}^{(t)})$, hacer $\bmath{\theta}^{(t+1)} = \bmath{\theta}^*$; en caso contrario, hacer $\bmath{\theta}^{(t+1)} = \bmath{\theta}^{(t)}$.





Este procedimiento genera una cadena de Markov con distribución de transición

\begin{displaymath}
P(\bmath{\theta}^{(t+1)} \vert \bmath{\theta}^{(t)}) =
\alp...
...t)}) \,
Q(\bmath{\theta}^{(t+1)} \vert \bmath{\theta}^{(t)}).
\end{displaymath}

La probabilidad de aceptación $\alpha(\bmath{\theta}^*, \bmath{\theta})$ sólo depende de $p(\bmath{\theta} \vert \bmath{x})$ a través de un cociente, por lo que la constante de normalización no es necesaria.





Comentario. La versión original del algoritmo de Metropolis toma $Q(\bmath{\theta}^* \vert \bmath{\theta}) = Q(\bmath{\theta} \vert \bmath{\theta}^*)$, en cuyo caso

\begin{displaymath}
\alpha(\bmath{\theta}^*, \bmath{\theta}) = \min \left\{ \fra...
...rt \bmath{x})}{p(\bmath{\theta} \vert \bmath{x})}, 1 \right\}.
\end{displaymath}





Dos casos particulares utilizados comúnmente en la práctica son:




$\diamond$ Caminata aleatoria. Sea $Q(\bmath{\theta}^* \vert \bmath{\theta}) =
Q_1(\bmath{\theta}^* - \bmath{\theta})$, donde $Q_1(\cdot)$ es una densidad de probabilidad simétrica centrada en el origen. Entonces

\begin{displaymath}
\alpha(\bmath{\theta}^*, \bmath{\theta}) = \min \left\{ \fra...
...rt \bmath{x})}{p(\bmath{\theta} \vert \bmath{x})}, 1 \right\}.
\end{displaymath}



$\diamond$ Independencia. Sea $Q(\bmath{\theta}^* \vert \bmath{\theta}) =
Q_0(\bmath{\theta}^*)$, donde $Q_0(\cdot)$ es una densidad de probabilidad sobre $\Theta$. Entonces

\begin{displaymath}
\alpha(\bmath{\theta}^*, \bmath{\theta}) = \min
\left\{ \fr...
...omega(\bmath{\theta}^*)}{\omega(\bmath{\theta})}, 1 \right\},
\end{displaymath}

con $\omega(\bmath{\theta}) =
p(\bmath{\theta} \vert \bmath{x}) / Q_0(\bmath{\theta})$.





En la práctica es común utilizar, después de una reparametrización apropiada, distribuciones de transición normales ó $t$ de Student ligeramente sobredispersas, e.g.

\begin{displaymath}
Q(\bmath{\theta}^* \vert \bmath{\theta}) = N_d(\bmath{\theta...
...eta}}))
\; \; \; \; \; \; \; \; \; \mbox{(caminata aleatoria)}
\end{displaymath}

ó

\begin{displaymath}
Q_0(\bmath{\theta}^*) = N_d(\bmath{\theta}^* \vert
\hat{\bm...
...{\theta}}))
\; \; \; \; \; \; \; \; \; \mbox{(independencia)},
\end{displaymath}

donde $\hat{\bmath{\theta}}$ y $\bmath{V}(\hat{\bmath{\theta}})$ denotan a la media y a la matriz de varianzas-covarianzas de la aproximación normal asintótica para $p(\bmath{\theta} \vert \bmath{x})$, respectivamente, y $\kappa \geq 1$ es un factor de sobredispersión.


next up previous
Next: 2 Muestreo de Gibbs Up: 2 Monte Carlo vía Previous: 2 Monte Carlo vía