14 votos

¿Cómo podemos obtener una distribución normal como $n \to \infty$ si limita el rango de valores de nuestra variable aleatoria?

Supongamos que tenemos una variable aleatoria con un rango de valores delimitada por $a$ $b$ donde $a$ es el valor mínimo y $b$ el valor máximo.

Me dijeron que como $n \to \infty$ donde $n$ es nuestro tamaño de la muestra, la distribución de muestreo de la muestra, significa que es una distribución normal. Que es, como aumentar el $n$ nos acercamos más y más a una distribución normal, pero el límite real como $n \to \infty$ es igual a una distribución normal.

Sin embargo, no es parte de la definición de la distribución normal que tiene que ir de$- \infty$$\infty$?

Si el máximo de nuestra gama es $b$, el valor máximo de la media de la muestra (independientemente del tamaño de la muestra) va a ser igual a $b$, y el mínimo de la media de la muestra igual a $a$.

Así que me parece que incluso si tomamos el límite de $n$ enfoques infinito, nuestra distribución no es una real distribución normal, debido a que está limitada por $a$$b$.

Lo que me estoy perdiendo?

15voto

Helper Puntos 1

Aquí es lo que te falta. La distribución asintótica no es de $\bar{X}_n$ (la media de la muestra), pero de $\sqrt{n}(\bar{X}_n - \theta)$ donde $\theta$ es la media de $X$.

Deje $X_1, X_2, \dots$ ser iid variables aleatorias tales que $a < X_i <b$ $X_i$ es decir $\theta$ y la varianza $\sigma^2$. Por lo tanto $X_i$ se ha acotado de apoyo. El CLT dice que $$\sqrt{n}(\bar{X}_n - \theta) \overset{d}{\to} N(0, \sigma^2), $$

donde $\bar{X}_n$ es la media de la muestra. Ahora

\begin{align*} a < &X_i <b\\ a < & \bar{X}_n <b\\ a-\theta < &\bar{X}_n - \theta < b - \theta\\ \sqrt{n}(a - \theta) < & \sqrt{n}(\bar{X}_n - \theta) < \sqrt{n}(b - \theta).\\ \end{align*}

Como $n \to \infty$, el límite inferior y el límite superior tienden a $-\infty$ $\infty$ respectivamente, y por lo tanto como $n \to \infty$ el apoyo de $\sqrt{n}(\bar{X}_n - \theta)$ es exactamente el conjunto de la línea real.

Cada vez que hacemos uso de la CLT, en la práctica, podemos decir $\bar{X}_n \approx N(\theta, \sigma^2/n)$, y esto siempre será una aproximación.


EDIT: creo que parte de la confusión es el de la interpretación del Teorema del Límite Central. Estás en lo correcto de que la distribución de muestreo de la media muestral es $$\bar{X}_n \approx N(\theta, \sigma^2/n). $$

Sin embargo, la distribución de muestreo es una muestra finita de la propiedad. Como usted dijo, queremos informar a $n \to \infty$; una vez que hemos de hacer que el $\approx$ de la muestra será un resultado exacto. Sin embargo, si dejamos $n \to \infty$, ya no podemos tener un $n$ en el lado derecho (desde $n$ ahora $\infty$). Así, la siguiente declaración es incorrecta $$ \bar{X}_n \overset{d}{\to} N(\theta, \sigma^2/n) \text{ as } n \to \infty.$$

[Aquí $\overset{d}{\to}$ es sinónimo de convergencia en términos de distribución]. Queremos escribir el resultado con precisión, por lo que el $n$ no está en el lado derecho. Aquí podemos ahora utilizar las propiedades de las variables aleatorias para obtener

$$ \sqrt{n}(\bar{X}_n - \theta) \overset{d}{\to} N(0, \sigma^2)$$

Para ver cómo el álgebra de las obras, mire la respuesta aquí.

7voto

Cliff AB Puntos 3213

Si te refieres a un teorema central del límite, tenga en cuenta que una forma correcta de escribirlo es

$\left( \frac{\bar x - \mu} {\sigma} \right) \sqrt n \rightarrow_d N(0,1)$

en condiciones normales ($\mu, \sigma$ siendo la media y la desviación estándar de $x_i$).

Con esta definición formal, se puede ver de inmediato que la izquierda puede tomar los valores para cualquier gama limitada dado un gran $n$.

Para ayudar a conectar a los informales idea de que "la media se aproxima a una distribución normal para un gran $n$", debemos darnos cuenta de que "se aproxima a una distribución normal" significa que el CDF ser arbitrariamente cerca de una distribución normal, como $n$ se hace grande. Pero como $n$ se hace grande, la desviación estándar de esta distribución aproximada encoge, por lo que la probabilidad de un extremo de la cola de la aproximación normal también llega a 0.

Por ejemplo, supongamos $X_i \sim \text{Bern}(p = 0.5)$. A continuación, podría utilizar el sector informal de la aproximación a decir que

$\bar X \dot \sim N\left(p, \frac{p(1-p)}{n}\right)$

Así que si bien es cierto que para cualquier finito $n$,

$P\left(N\left(p, \frac{p(1-p)}{n}\right) < 0\right) >0$

(lo que implica la aproximación es claramente nunca es perfecta), como $n \rightarrow \infty$,

$P\left(N\left(p, \frac{p(1-p)}{n}\right) < 0\right) \rightarrow 0$

De modo que la discrepancia entre la distribución real y la distribución aproximada es de desaparecer, como se supone que debe ocurrir con aproximaciones.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X