 
 
 
 
 
   
Este algoritmo construye una cadena de Markov apropiada definiendo las probabilidades de transición de la siguiente manera.
Sea 
 una distribución de 
transición (arbitraria) y definamos
 una distribución de 
transición (arbitraria) y definamos
 
Algoritmo. Dado un valor inicial 
 , la
, la 
 -ésima iteración consiste en:
-ésima iteración consiste en:
1. generar una observación 
 de
 de 
 ;
;
2. generar una variable  ;
;
3. si 
 , 
hacer
, 
hacer 
 ; en caso contrario, 
hacer
; en caso contrario, 
hacer 
 .
.
Este procedimiento genera una cadena de Markov con distribución de
transición 
 
 sólo depende de
 
sólo depende de 
 a través de un cociente, 
por lo que la constante de normalización no es necesaria.
 a través de un cociente, 
por lo que la constante de normalización no es necesaria. 
Comentario. La versión original del algoritmo de Metropolis toma 
 , 
en cuyo caso
, 
en cuyo caso
 
Dos casos particulares utilizados comúnmente en la práctica son:
 Caminata aleatoria. Sea
 Caminata aleatoria. Sea 
 , donde
, donde 
 es una densidad de probabilidad simétrica centrada en el 
origen. Entonces
 es una densidad de probabilidad simétrica centrada en el 
origen. Entonces 
 
 Independencia. Sea
 Independencia. Sea 
 , donde
, donde  es una densidad de probabilidad 
sobre
 es una densidad de probabilidad 
sobre  . Entonces
. Entonces 
 
 .
.
 
En la práctica es común utilizar, después de una reparametrización 
apropiada, distribuciones de transición normales ó  de Student 
ligeramente sobredispersas, e.g.
 de Student 
ligeramente sobredispersas, e.g. 
 
 
 y
 y 
 denotan 
a la media y a la matriz de varianzas-covarianzas de la aproximación 
normal asintótica para
 denotan 
a la media y a la matriz de varianzas-covarianzas de la aproximación 
normal asintótica para 
 , respectivamente, 
y
, respectivamente, 
y  es un factor de sobredispersión.
 es un factor de sobredispersión.
 
 
 
 
