next up previous
Next: 2 El modelo general Up: 3 Teorema de representación Previous: 3 Teorema de representación

1 El modelo Binomial

Sea $X_1,X_2,\ldots$ una sucesión infinita de variables aleatorias intercambiables que toman valores en $\{0,1\}$. El siguiente resultado proporciona una representación de la función de probabilidad conjunta de las primeras $n$ variables aleatorias $X_1,\ldots,X_n$.


\begin{Theo}
Si $X_1,X_2,\ldots$\ es una sucesi\'on infinita de variables aleato...
...dots+X_n$, y $\, \theta = \lim_{n \rightarrow \infty} Y_n/n$(c.\ s.).
\end{Theo}

\begin{Proof}
% latex2html id marker 229Supongamos que $x_1+\cdots+x_n=y_n$, c...
...math}y el resultado es ahora una simple consecuencia de (\ref{bin}).
\end{Proof}

Este teorema tiene un significado muy profundo desde el punto de vista de la modelación subjetiva. El teorema nos dice que el modelo predictivo para una sucesión intercambiable de variables aleatorias binarias puede ser descrito en términos de una situación en la que:

(i) condicional en el valor de una variable aleatoria, $\theta$, las variables aleatorias $X_i$ se consideran independientes con distribución Bernoulli;

(ii) a $\theta$ se le asigna una distribución de probabilidad $Q$.

Por la Ley Fuerte de los Grandes Números, $\theta=\lim_{n \rightarrow \infty} Y_n/n$ (c. s.), de manera que $Q$ puede interpretarse como una descripción de los juicios acerca del límite de la frecuencia relativa de los ``éxitos'' en la sucesión de ensayos Bernoulli.


\begin{Coro}
Si $X_1,X_2,\ldots$\ es una sucesi\'on infinita de variables aleato...
...ion}y $Q(\theta)=\lim_{n \rightarrow \infty} \Pr(Y_n/n \leq \theta)$.
\end{Coro}

\begin{Proof}
Claramente,
\begin{eqnarray*}
\lefteqn{ p(x_{m+1},\ldots,x_n \vert...
...^{1-x_i} \right\} \,
dQ(\theta\vert x_1,\ldots,x_m).
\end{eqnarray*}\end{Proof}

La expresión (3) no es más que una versión del Teorema de Bayes. Notemos que la forma de la representación no cambia. En la terminología usual, la distribución inicial $Q(\theta)$ ha sido actualizada a través del Teorema de Bayes, obteniéndose la distribución final $Q(\theta\vert x_1,\ldots,x_m)$.

La distribución predictiva (final) $p(x_{m+1},\ldots,x_n\vert x_1,\ldots,x_m)$ nos permite derivar la correspondiente distribución predictiva de cualquier otra variable definida en términos de las observaciones futuras. Por ejemplo, dado $X_1=x_1,\ldots,X_m=x_m$, la distribución predictiva de $Y_{n-m} = X_{m+1}+\cdots+X_n$ es de la forma

\begin{displaymath}
p(y_{n-m}\vert x_1,\ldots,x_m) =
\int_0^1 \left( \begin{arra...
... (1-\theta)^{(n-m)-y_{n-m}} \,
dQ(\theta\vert x_1,\ldots,x_m).
\end{displaymath}

Una variable particularmente importante es la frecuencia relativa de los ``éxitos'' en una muestra grande. Por el Teorema 2.1 y el Corolario 2.1,

\begin{displaymath}
\lim_{n \rightarrow \infty} \Pr(Y_{n-m}/(n-m) \leq \theta \vert x_1,\ldots,x_m) =
Q(\theta\vert x_1,\ldots,x_m).
\end{displaymath}

Así, la distribución final del parámetro $\theta$ puede verse como un caso límite de la distribución predictiva final de una variable aleatoria observable (la frecuencia relativa de ``éxitos'').


next up previous
Next: 2 El modelo general Up: 3 Teorema de representación Previous: 3 Teorema de representación