next up previous
Next: Reconocimientos Up: MCB Previous: 6 Notas bibliográficas

6 Conclusiones

En estas notas hemos discutido algunos métodos clásicos para aproximar integrales, así como algunas de las técnicas de integración desarrollados durante los últimos años: aproximaciones analíticas, integración numérica, métodos de Monte Carlo y técnicas de Monte Carlo vía cadenas de Markov. Cuál de estos métodos es mejor? La elección depende, por supuesto, del tipo de información que se requiera en cada aplicacion específica. Los métodos de Monte Carlo vía cadenas de Markov son bastante flexibles en relación con los otros métodos, pero pueden llegar a tener un costo computacional muy alto. Probablemente la mejor estrategia en una aplicación concreta consista en combinar varios de los métodos revisados en estas notas. Es frecuente, por ejemplo, que la aproximación normal asintótica a la distribución final del parámetro de interés sugiera formas que pueden ser utilizadas como distribuciones de muestreo por importancia para Monte Carlo, o bien como distribuciones de transición para el algoritmo de Metropolis-Hastings.

En términos generales, las técnicas aquí discutidas serán más eficientes y darán resultados más precisos en la medida en que la aproximación normal asintótica a la distribución final sea más adecuada. Es por esta razón que en la mayoría de los casos resulta conveniente trabajar en términos de una reparametrización del modelo, de manera que cada uno de los nuevos parámetros tome valores en todo $\Rex$ y su distribución final sea aproximadamente normal. En el caso de algunos procedimientos, tales como las reglas cartesianas de integración numérica o el muestreo de Gibbs, también es importante que la correlación final entre los nuevos parámetros no sea muy alta.

Finalmente, cabe señalar que el advenimiento de nuevas técnicas como las de Monte Carlo vía cadenas de Markov ha permitido el desarrollo de software Bayesiano para analizar modelos cada vez más complejos. La mayoría de estos programas, incluyendo los que se listan a continuación, aún se encuentran en etapa experimental y no están disponibles comercialmente.



$\bullet$ BUGS (Bayesian Inference Using Gibbs Sampling). Permite analizar modelos con estructuras complejas (e.g. modelos jerárquicos) a través del muestreo de Gibbs.

Disponible en http://www.mrc-bsu.cam.ac.uk/bugs



$\bullet$ MCSim (Simulation Software). Utiliza el algoritmo de Metropolis-Hastings y otros métodos de Monte Carlo para hacer inferencia Bayesiana.

Disponible en http://rfs63.berkeley.edu/users/fbois/mcsim.html



$\bullet$ FBM (Software for Flexible Bayesian Models based on Neural Networks and Gaussian Processes).

Disponible en http://www.cs.toronto.edu/$\sim$radford/





Subsections
next up previous
Next: Reconocimientos Up: MCB Previous: 6 Notas bibliográficas