Al igual que el algoritmo de Metropolis, el algoritmo de Gibbs
permite simular una cadena de Markov
con distribución de
equilibrio
. En este caso, sin embargo, cada
nuevo valor de la cadena se obtiene a través de un proceso iterativo que
sólo requiere generar muestras de distribuciones cuya dimensión es menor
que
y que en la mayoría de los casos tienen una forma más
sencilla que la de
.
Sea
una
partición del vector
, donde
y
. Las densidades
Dado un valor inicial
, el algoritmo
de Gibbs simula una cadena de Markov en la que
se obtiene a partir de
de la siguiente manera:
generar una observación
de
;
generar una observación
de
;
generar una observación
de
.
La sucesión
así
obtenida es entonces una realización de una cadena de Markov cuya
distribución de transición está dada por
Comentario. En ocasiones la distribución final implica cierta
estructura de independencia condicional entre algunos de los elementos
del vector
. Es estos casos es común que muchas de las
densidades condicionales completas se simplifiquen.
El siguiente ejemplo presenta una aplicación interesante del muestreo de Gibbs al problema de observaciones faltantes.