20 votos

¿Cuál es la importancia de la función $e^{-x^2}$ ¿en estadísticas?

En mi clase de cálculo , nos encontramos con la función $e^{-x^2}$ o la "curva de campana", y me dijeron que tiene frecuentes aplicaciones en estadística.

Por curiosidad, quiero preguntar: ¿Es la función $e^{-x^2}$ verdaderamente importante en estadística? En caso afirmativo, ¿de qué se trata $e^{-x^2}$ que lo hace útil y cuáles son algunas de sus aplicaciones?

No pude encontrar mucha información sobre la función en Internet, pero después de investigar un poco, encontré un vínculo entre las curvas de campana en general, y algo llamado distribución normal . A Página de Wikipedia vincula este tipo de funciones a la aplicación de estadísticas, con resaltado por mi parte, que establece:

"La distribución normal se considera la distribución de probabilidad más destacada en estadística. Esto se debe a varias razones: 1 En primer lugar, la distribución normal surge del teorema del límite central, que establece que en condiciones moderadas, la suma de un gran número de variables aleatorias extraídas de la misma distribución se distribuye de forma aproximadamente normal, independientemente de la forma de la distribución original ."

Así, si reúno una gran cantidad de datos de algún tipo de encuesta o similar, podrían distribuirse equitativamente entre una función como $e^{-x^2}$ ? La función es simétrica, también lo es su simetría, es decir, su utilidad para la distribución normal, ¿qué la hace tan útil en estadística? Sólo estoy especulando.

En general, lo que hace $e^{-x^2}$ ¿útil en estadística? Si la distribución normal es la única área, entonces ¿qué hace que $e^{-x^2}$ ¿única o específicamente útil entre otras funciones de tipo gaussiano en la distribución normal?

12voto

phloopy Puntos 4285

La razón por la que esta función es importante es, de hecho, la distribución normal y su compañero estrechamente vinculado, el teorema central del límite (tenemos algunas buenas explicaciones del CLT en otras cuestiones aquí).

En estadística, la CLT se suele utilizar para calcular probabilidades de forma aproximada, lo que permite hacer afirmaciones como "tenemos un 95 % de confianza en que..." (a menudo se malinterpreta el significado de "95 % de confianza", pero eso es otro tema).

La función $\exp\Big(-\frac{(x-\mu)^2}{2\sigma^2}\Big)$ es (una versión escalada de) la función de densidad de la distribución normal. Si una cantidad aleatoria puede modelizarse mediante la distribución normal, esta función describe la probabilidad de que se den distintos valores posibles de dicha cantidad. Los resultados en regiones con alta densidad son más probables que los resultados en regiones con baja densidad.

$\mu$ y $\sigma$ son parámetros que determinan la localización y la escala de la función de densidad. Es simétrica respecto a $\mu$ por lo que cambiar $\mu$ significa que se desplaza la función hacia la derecha o hacia la izquierda. $\sigma$ determina el valor de la función de densidad en su máximo ( $x=\mu$ ) y lo rápido que pasa a 0 como $x$ se aleja de $\mu$ . En ese sentido, cambiar $\sigma$ cambia la escala de la función.

Para la elección particular $\mu=0$ y $\sigma=1/\sqrt{2}$ la densidad es (proporcional a) $e^{-x^2}$ . No es una elección especialmente interesante de estos parámetros, pero tiene la ventaja de producir una función de densidad que parece ligeramente más simple que todas las demás.

Por otra parte, podemos pasar de $e^{-x^2}$ a cualquier otra densidad normal mediante el cambio de variables $x=\frac{u-\mu}{\sqrt{2}\sigma}$ . La razón por la que su libro de texto dice que $e^{-x^2}$ y no $\exp\Big(-\frac{(x-\mu)^2}{2\sigma^2}\Big)$ es una función muy importante es que $e^{-x^2}$ es más sencillo de escribir.

3voto

Jonathan Arkell Puntos 4265

Tienes razón, la distribución normal o gaussiana es una distribución escalada y desplazada. $\exp (-x^2)$ por lo que la importancia de $\exp (-x^2)$ proviene principalmente del hecho de que es esencialmente la distribución normal.

Y la distribución normal es importante principalmente porque ("en condiciones de regularidad leve") la suma de muchas variables aleatorias independientes e idénticamente distribuidas se aproxima a la normal, cuando "muchas" se aproximan al infinito.

No todo se distribuye normalmente. Por ejemplo, los resultados de una encuesta pueden no serlo, al menos si las respuestas no se sitúan ni siquiera en la escala continua, sino en algo parecido a números enteros del 1 al 5. Pero los media de los resultados se distribuye normalmente en un muestreo repetido, porque la media es sólo una suma escalada (normalizada) y las respuestas individuales son independientes entre sí. Suponiendo que la muestra sea lo suficientemente grande, por supuesto, porque estrictamente hablando, la normalidad sólo aparece cuando el tamaño de la muestra llega a ser infinito.

Como se ve en el ejemplo, la distribución normal puede aparecer como resultado del proceso de estimación o modelización, incluso cuando los datos no tienen una distribución normal. Por lo tanto, las distribuciones normales están presentes en todas partes en estadística. En la estadística bayesiana, muchas distribuciones posteriores de parámetros son aproximadamente normales, o se puede suponer que lo son.

1voto

Aksakal Puntos 11351

La característica única de esta función es que su densidad espectral ( Transformada de Fourier ) es lo mismo que una función propiamente dicha. Esto significa que cuando se escala adecuadamente para que sea la función de densidad de probabilidad (FDP), su función generadora de momentos ( MGF ) y funciones características ( CF ) tienen la misma forma y escala:

  • PDF: $\frac 1 {\sqrt{s\pi}}e^{-x^2/2}$ es gaussiano ( normal ) PDF
  • MGF: $\frac 1 {\sqrt{s\pi}}e^{t^2/2}$
  • CF: $\frac 1 {\sqrt{s\pi}}e^{-t^2/2}$

Esto lleva a una lista interminable de implicaciones asombrosas. Te voy a dar mi favorito: principio de incertidumbre en mecánica cuántica .

Como habrás oído en mecánica cuántica las partículas se representan por sus funciones de onda $\psi(x)$ . El cuadrado de la amplitud del función de onda $|\psi(x)|^2$ es básicamente una PDF, es decir, representa la probabilidad de que la partícula se encuentre en las proximidades de $x$ . Así pues, la mecánica cuántica está íntimamente ligada a la teoría de la probabilidad.

También habrá oído que en mecánica cuántica es imposible detectar tanto la ubicación $x$ de una partícula y su velocidad (momento) $p$ exactamente. Si sabes exactamente dónde está la partícula, no podrás determinar su velocidad. Si conoces la velocidad a la que se mueve una partícula, no sabrás dónde está. Si conoce análisis espectral entonces debe saber que una onda sinusoidal perfecta no es local, abarca desde $-\infty<x<\infty$ . Es el mismo principio.

Esto se recoge en el principio de incertidumbre, y a veces se expresa aproximadamente como $\Delta x\Delta p\ge \frac{\hbar}{2}$ . Aquí está el remate: la cantidad $\Delta x\Delta p$ es el más pequeño cuando la función de onda de la partícula $\psi(x)$ está representada por la distribución normal PDF, es decir, ¡su función! No es de extrañar que también sea la distribución de probabilidad con entropía máxima entre todos con varianza 1.

Así pues, para explicarte un ejemplo he tenido que hacer referencia a varios conceptos fundamentales de la teoría de la probabilidad y la estadística PDF, CF, análisis espectral, entropía, etc. Esto se debe a que no importa lo que estés haciendo en estadística, esta función está al acecho en algún lugar cercano.

-1voto

mat_geek Puntos 1367

Una versión de CLT nos dice que la distribución de medias de variables aleatorias independientes idénticamente distribuidas empezará a parecerse a la campana -con forma de distribución normal como el número de variables en la suma ( $n$ ) se hace grande. La convergencia matemática formal tiene lugar bajo condiciones suaves en la distribución cuando la media se normaliza adecuadamente. Esto funcionará para la mayoría de las distribuciones de población de diversas formas, incluyendo gamma , triangular , uniforme , beta , chi cuadrado e incluso distribuciones discretas como Bernoulli . Esto facilita la inferencia sobre la media de una distribución basada en una muestra aleatoria mediante comprobación de hipótesis o construir intervalos de confianza basada en la distribución normal aproximada. Dado que la varianza de la media muestral va a $0$ a un ritmo de $1/n$ la media convergerá en realidad a una distribución degenerada con toda su masa de probabilidad en la media de la población. Por lo tanto, la normalización adecuada para la convergencia a una normal requiere el recentrado y la multiplicación por $\sqrt{n}$ . Hay otros estadísticos que también convergen a la normal. El hecho de que la distribución normal pueda utilizarse para aproximar la distribución de varios estadísticas de prueba es la razón de su prominencia en las estadísticas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X