next up previous
Next: 3 Métodos relacionados Up: 2 Monte Carlo vía Previous: 2 Muestreo de Gibbs

3 Convergencia

Supongamos que se desea generar una muestra de tamaño $N$ de la distribución $p(\bmath{\theta \vert \bmath{x}})$. Si para cada uno de $N$ valores iniciales $\bmath{\theta}_1^{(0)},\ldots,\bmath{\theta}_N^{(0)}$ corremos alguno de los algoritmos discutidos en esta sección, entonces, de acuerdo con la Proposición 5.1(i), después de un cierto número de iteraciones $T$ suficientemente grande los valores $\bmath{\theta}_1^{(T)},\ldots,\bmath{\theta}_N^{(T)}$ pueden considerarse como una muestra de tamaño $N$ de la distribución final de $\bmath{\theta}$. Alternativamente podemos generar una sola cadena y tomar los valores $\bmath{\theta}^{(T+K)},\bmath{\theta}^{(T+2K)},\ldots,
\bmath{\theta}^{(T+NK)}$ como una muestra de $p(\bmath{\theta} \vert \bmath{x})$, donde $K$ se elige de manera que la correlación entre las observaciones sea pequeña.

En general no es fácil determinar en qué momento la(s) cadena(s) ha(n) convergido. Un método empírico comúnmente utilizado, basado en la Proposición 5.1(ii), consiste en graficar los promedios ergódicos de algunas funciones de $\bmath{\theta}$ contra el número de iteraciones y elegir el valor $T$ a partir del cual las gráficas se estabilizan. En este caso es frecuente omitir los primeros valores de la(s) cadena(s) al calcular los promedios ergódicos. La idea de este periodo de calentamiento es permitir que la(s) cadena(s) salga(n) de una primera fase de inestabilidad. En el caso particular del muestreo de Gibbs la velocidad de convergencia depende fuertemente de la correlación entre los componentes del vector  $\bmath{\theta}$ bajo la distribución final $p(\bmath{\theta} \vert \bmath{x})$: entre más alta sea la correlación más lenta será la convergencia.


next up previous
Next: 3 Métodos relacionados Up: 2 Monte Carlo vía Previous: 2 Muestreo de Gibbs