Supongamos ahora que
y que se requiere
evaluar la integral
Si ahora generamos una muestra
de
entonces podemos aproximar la integral a través
del estimador insesgado
La varianza de este estimador está dada por
La precisión de depende tanto del tamanõ de muestra, , como de la distribución de muestreo por importancia, . De hecho, si se elige proporcional a entonces Var sin importar el tamaño de muestra. Por supuesto en la práctica dicha elección no es posible, pero esta idea sugiere que debe tener una forma similar a la de , excepto tal vez en regiones donde los valores de sean despreciables.
Tenemos entonces que, para una integral dada, existe una infinidad de estimadores insesgados, en principio con precisiones distintas. Un aspecto importante del método de Monte Carlo se refiere al diseño de técnicas de reducción de varianza para dichos estimadores. Una de las técnicas más sencillas consiste precisamente en elegir una distribución de muestreo por importancia adecuada. Generalmente se requiere que satisfaga las siguientes condiciones:
(a) debe ser fácil de simular;
(b) debe tener una forma similar a la de , la función que se desea integrar;
(c) debe tener las colas más pesadas que , pues de otra forma la varianza de podría llegar a ser muy grande o incluso infinita.
En la práctica es común trabajar en términos de alguna reparametrización , de manera que la integral esté definida sobre todo . Es este caso, el uso de la distribución de Student (con pocos grados de libertad) como distribución de muestreo por importancia es bastante frecuente.
Como una aplicación interesante de este método, consideremos el
problema de calcular el valor esperado de una función
respecto a la distribución final
,
i.e.
Sea una distribución de muestreo por importancia. Estimando por separado cada una de las integrales en (10) tenemos
Este estimador es sólo asintóticamente insesgado. En problemas de este tipo es común elegir de acuerdo con la forma de , es decir, de la distribución final, pero con las colas más pesadas. Si las colas de son más ligeras que las de entonces puede llegar a ser muy grande, lo cual haría que el estimador (11) fuera inestable. Por esta razón es conveniente que los pesos sean todos del mismo orden. De hecho, si entonces para toda .
Lo anterior sugiere una manera de verificar la convergencia del estimador
(11): comparar los pesos
con una
distribución uniforme discreta sobre
, digamos a
través de la divergencia logarítmica de Kullback-Leibler, i.e.