next up previous
Next: 2 Aproximaciones Analíticas Up: 1 Introducción Previous: 1 Ejemplo A: modelo

2 Ejemplo B: modelo Cauchy

Sean $X_1=x_1$ y $X_2=x_2$ dos observaciones independientes de una distribución Cauchy, con función de densidad

\begin{displaymath}
p(x \vert \theta) = \frac{1}{\pi \, \{ 1 + (x - \theta)^2 \}...
...; \; \; \; \; \; \; \; \; \;
(x \in \Rex; \, \theta \in \Rex).
\end{displaymath}

Puede demostrarse que si $x_1$ y $x_2$ son tales que $\vert x_1 - x_2\vert > 2$ entonces la función de verosimilitud de $\theta $ es bimodal.

Sean $x_1=-5$ y $x_2=3$. Supongamos que se desea hacer inferencias sobre el valor de $\theta $ con base en esta información y la distribución inicial no informativa

\begin{displaymath}
p(\theta) \propto 1.
\end{displaymath}

Específicamente, interesa encontrar la distribución final de $\theta $, $p(\theta \vert x_1, x_2)$.

Desafortunadamente, en este caso la función de verosimilitud, y por lo tanto la distribución final de $\theta $, tiene una forma complicada. Es conveniente notar, sin embargo, que $p(x \vert \theta)$ corresponde a la densidad marginal de $x$ respecto a la densidad conjunta

\begin{displaymath}
p(x, \lambda \vert \theta) =
N(x \vert \theta, 1/\lambda) \, \mbox{Ga}(\lambda \vert 1/2, 1/2).
\end{displaymath} (4)