5 votos

Estadísticas: ¿De dónde vinieron de esta función de distribución normal?

Estoy estudiando distribución normal por primera vez y tengo problemas para entender de donde vino esta fórmula:

$$\phi(x) = \frac{1}{\sqrt{2\pi}}\, e^{- \frac{\scriptscriptstyle 1}{\scriptscriptstyle 2} x^2}$$

¿Alguien podría derivar esta ecuación?

¿Por qué en el caso general?

$$\frac{1}{\sigma\sqrt{2\pi}} e^{ -\frac{(x-\mu)^2}{2\sigma^2} }$$

6voto

Knox Puntos 1543

Aquí es comúnmente visto derivación.

Considere la posibilidad de lanzar un dardo a una diana, con el objetivo de en el origen. Hacemos la hipótesis de que:

  1. Los errores en las direcciones horizontal y vertical son independientes e idénticamente distribuidas
  2. Los errores son isotrópicos, es decir, la magnitud del error no depende de la dirección
  3. La probabilidad de que el dardo de aterrizaje en un área pequeña es proporcional al área
  4. Grandes errores son menos propensos que los pequeños errores

Decir que la probabilidad de aterrizaje en una franja centrada en $x$ y de anchura $\Delta x$$p(x)\Delta x$, y de manera similar a $p(y)\Delta y$ para el aterrizaje en una franja centrada en $y$ de la anchura $\Delta y$.

Desde horizontal y vertical de los errores son independientes podemos multiplicar estas probabilidades para obtener la probabilidad de un aterrizaje en el cuadro de la $(x,y)$ del tamaño de la $\Delta x\Delta y$. Por supuestos (1) y (2) este debe depender sólo de la distancia desde el origen, y también debe ser proporcional a $\Delta x\Delta y$:

$$p(x)\Delta x \cdot p(y)\Delta y = f(r) \Delta x \Delta y$$

que nos dice que

$$p(x)p(y) = f(r)$$

Si diferenciamos con respecto a la angulares coordinar $\theta$ en ambos lados, obtenemos

$$p(x) \frac{\partial p(y)}{\partial \theta} + p(y) \frac{\partial p(x)}{\partial \theta} = 0$$

que, usando coordenadas polares $x=r\cos\theta$ $y=r\sin\theta$ se convierte en

$$p(x)p'(y) r\cos\theta - p(y)p'(x) r\sin\theta = 0$$

o

$$p(x)p'(y)x - p(y)p'(x) y = 0$$

que puede reordenarse

$$\frac{p(x)x}{p'(x)} = \frac{p(y)y}{p'(y)}$$

Desde ambos lados son funciones de una variable independiente y, sin embargo, son iguales, que debe ser igual a una constante:

$$xp(x) = Cp'(x)$$

y ahora podemos separar variables e integrar, llegar

$$\frac{x^2}{2} = C\log p(x) + b$$

o

$$p(x) = A \exp\left(\frac{x^2}{2C} \right)$$

Ahora el supuesto de que los grandes errores son menos propensos que los pequeños nos dice que $C<0$, y la constante $A$ es determinado por el requisito de que la probabilidad se integra a 1.

2voto

Daniel Schierbeck Puntos 962

De wikipedia: se Parece a la De Moivre fue casi allí, pero no se dio cuenta de que alrededor de 1768, después de 71 años más tarde, Gauss había llegado. De Moivre comenzó a descubrir lo que ahora sabemos, que la distribución normal es un caso límite de la distribución binomial con $p=\frac12$$n\rightarrow\infty$. (Digo iniciado, debido a que no tenía el concepto de una función de densidad de probabilidad. Había crucial de la fórmula, pero no el concepto a desarrollar en una distribución en su propio derecho.) Esta es una manera de definir la distribución normal. Gauss, mientras que el desarrollo del método de estimación de máxima verosimilitud, mostró que la curva normal es la única distribución que justifica la media aritmética de un conjunto de mediciones, bien conocido en el momento, como la elección de la estimación del parámetro de localización.

El caso general se sigue de las propiedades de las integrales y/o valor esperado, varianza y transformación de variables aleatorias, de forma análoga a los turnos de $f(x-a)$ y dilataciones $f(cx)$ de una función arbitraria $f(x)$.

0voto

Knox Puntos 1543

He aquí otra derivación. Considere la posibilidad de una variable aleatoria $X$$p(x)$, la cual tiene cero expectativa y de la unidad de decir: $E(X)=0$$E(X^2)=1$.

Siguiendo el principio de máxima entropía tratamos de encontrar la distribución de máxima entropía, sujeto a las condiciones de la media y la varianza. Esto le da un Lagrangiano problema de optimización, con Lagrange

$$L(p) = \int p(x) \log p(x) dx - a\left( \int p(x)dx - 1\right) - b\int xp(x)dx - c\left( \int x^2p(x) dx - 1\right)$$

La diferenciación de una vez,

$$\delta L(p) = \int (\delta p \log p + 1)dx - a\int\delta p dx - b\int x\delta p dx - c\int x^2\delta p dx$$

y se requiere que este sea el cero da

$$\delta L(p) = \int \left(\log p + 1 - a - bx - cx^2\right) \delta p dx = 0$$

que vale para todas las variaciones $\delta p$ si y sólo si

$$\log p(x) = a-1 + bx + cx^2$$

o

$$p(x) = A e^{bx + cx^2}$$

Las constantes $a$, $b$ y $c$ se determina mediante la exigencia de que $E(X)=0$, $E(X^2)=1$ y que $p(x)$ integra a 1.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X