17 votos

La motivación de la Integral de Gauss

He leído en la Wikipedia que Laplace fue el primero en evaluar

$$\int\nolimits_{-\infty}^\infty e^{-x^2} \, \mathrm dx$$

¿Alguien sabe lo que él estaba haciendo que lo llevaron a esa integral? Incluso mejor, ¿alguien puede suponer un problema naturales que llevaría a esta integral?

Edit: Muchas de las respuestas de realizar una conexión a la distribución normal, pero entonces la pregunta ahora es: ¿cuál es la función de densidad de la distribución normal? Mike spivey se la respuesta está en el espíritu de lo que estoy buscando: una explicación de que un cálculo estudiante puede entender.

19voto

Martin OConnor Puntos 116

Se le preguntó acerca de un problema naturales que conduce a esta integral. He aquí un resumen de los argumentos que me dan en mi licenciatura de teoría de la probabilidad de la clase. (Debido a Dan Teague; él tiene el artículo aquí.)

Imagina lanzar un dardo en el origen en el plano. Te refieres al origen, sino que hay cierta variabilidad en su lanza. Los siguientes supuestos quizá parezcan razonables.

  1. Los errores no dependen de la orientación del sistema de coordenadas.
  2. Errores en direcciones perpendiculares son independientes. (Es demasiado alta no afecta a la probabilidad de estar demasiado a la derecha.)
  3. Grandes errores son menos propensos que los pequeños errores.

Deje que la probabilidad de aterrizaje en una delgada franja vertical de$x$$\Delta x$$p(x) \Delta x$. Del mismo modo, dejar que la probabilidad de un aterrizaje en corto franja horizontal de$y$$\Delta y$$p(y) \Delta y$. Por lo que la probabilidad de que el dardo de aterrizaje en la intersección de las dos tiras de es $p(x) p(y) \Delta x \Delta y$. Desde la orientación no importa, cualquier parecido de la región de $r$ unidades de distancia desde el origen tiene la misma probabilidad, y así podríamos expresar esto en polar como $p(r) \Delta x \Delta y$; es decir, $p(r) = p(x) p(y)$.

La diferenciación de ambos lados de $p(r) = p(x) p(y)$ con respecto al $\theta$ rendimientos $0 = p(x) \frac{dp(y)}{d \theta} + p(y) \frac{dp(x)}{d \theta}$. El uso de $x = r \cos \theta$, $y = r \sin \theta$, simplificando, y la separación de variables produce la ecuación diferencial $$\frac{p'(x)}{x p(x)} = \frac{p'(y)}{y p(y)}.$$

Ahora, se supone que $x$ $y$ son independientes, sin embargo, esta ecuación diferencial se tiene para cualquier $x$$y$. Esto sólo es posible si, por alguna constante $C$, $$\frac{p'(x)}{x p(x)} = \frac{p'(y)}{y p(y)} = C.$$ La resolución de la $x$ versión de esta ecuación diferencial de los rendimientos de $$\frac{dp}{p} = Cx \, dx \Rightarrow \ln p = \frac{Cx^2}{2} + c \Rightarrow p(x) = Ae^{Cx^2/2}.$$ Por último, desde las grandes errores son menos propensos que los pequeños errores de $C$ debe ser negativo. Así que tenemos $$p(x) = A e^{-kx^2/2}.$$ Desde $p(x)$ es una función de densidad de probabilidad, $$\int_{-\infty}^{\infty} A e^{-kx^2/2} dx = 1,$$ que es sólo una versión a escala original de su integral.

(Un poco más de trabajo muestra que $A = \sqrt{k/2\pi}$. También, si lo piensan algunos, es lógico que $k$ debe ser inversamente proporcional a la variabilidad en su lanzamiento. Y para el pdf normal, de hecho estamos a $k = 1/\sigma^2$.)

8voto

Michael Hardy Puntos 128804

En el siglo 18, Abraham de Moivre escribió un libro sobre la probabilidad llamado La Doctrina de Posibilidades. Él escribió en inglés porque había huido a Inglaterra para escapar de la persecución de los Protestantes en Francia. Él considera que la distribución de probabilidad del número de cabezas que aparecen cuando una moneda es lanzada $n$ veces. El valor exacto de la probabilidad de que el número de es $x$ se toma un tiempo para calcular. La media es $\mu=n/2$ y la desviación estándar es $\sigma= \sqrt{n}/2$. Considere la posibilidad de $$ \varphi(x) = (\text{algunos de la normalización de la constante}) \cdot e^{-x^2/2},\text{ y }\Phi(x) = \int_{-\infty}^x \varphi(u)\,du. $$ donde la constante es el elegido para que $\varphi$ integra a 1. de Moivre encontrado la normalización de la constante numérica, y más tarde a su amigo James Stirling mostró que el es $1/\sqrt{2\pi}$, que creo que se manifestó en una posterior edición de de Moivre del libro.

de Moivre mostró que la probabilidad acumulada de la distribución del número de cabezas, evaluado en $x$, enfoques $F(x)=\Phi((x-\mu)/\sigma)$ $n$ crece. Esta fue una de las primeras versiones del teorema del límite central. La probabilidad de que el número de cabezas es exactamente $x$ se aproxima por $F(x+1/2) - F(x-1/2)$.

Que es una razón para considerar esta función.

En el siglo 19, Carl Gauss demostró que menos plazas de las estimaciones de los coeficientes de regresión coincide con el de máxima probabilidad estimaciones, precisamente, si la función de distribución de probabilidad acumulativa (c.d.f.) de los errores se $x\mapsto\Phi(x/\sigma)$ algunos $\sigma>0$. Al parecer el nombre de "Gaussiano" se adjunta a estas funciones.

James Clerk Maxwell demostró que la si $X_1,\dots,X_n$ son independientes idénticamente distribuidas variables aleatorias y sus distribuciones de probabilidad es esféricamente simétrica en el espacio Euclidiano, entonces, de nuevo, la c.d.f. debe ser el mismo "Gaussiano" de la función.

2voto

Matt Dawdy Puntos 5479

Supongo (y es sólo una suposición) es que Laplace fue motivado por las aplicaciones de la ecuación del calor. Como resulta que, en una escala de Gauss describe cómo el calor se propaga de un punto en el espacio Euclidiano, así que usted puede describir cómo el calor se propaga de una arbitraria distribución inicial mediante la adición de un montón de Gaussianas. Por supuesto, un arbitrario de la distribución inicial puede ser continua, y, a continuación, la suma se convierte en una convolución.

Si se espera que la distribución de calor que se propaga desde un punto es proporcional a una Gaussiana (que supongo que se puede motivar por la forma heurística aplicar el teorema del límite central), entonces la constante de proporcionalidad es una Gaussiana integral, que ahora se necesita saber el valor de.

1voto

Billy Puntos 16

La función de $e^{-x^2}$ es proporcional a la densidad de probabilidad de la distribución normal (con una media de 0, varianza $1/2$). Así que usted quiere encontrar la constante de $C$ para hacer de esta una densidad de probabilidad:

$$\int_{-\infty}^{\infty}\!Ce^{-x^2}\,dx=1$$

(ya que desea que el total probabilidad 1).

Sospecho que la razón histórica así.

1voto

Josh Puntos 38

La integral se dio, cuando se toma como una integral definida :

$\int^{x_2}_{x_1} e^{-x^2} dx$

Cuando se ajusta la escala por $\frac {1}{\pi^{0.5}}$

es/describe la univariante de densidad de probabilidad de un normalmente distribuida trandom variable $X$ con media=0 y desviación estándar ${\frac {1}{2^{0.5}}}$, es decir, Esto significa que el valor numérico de esta integral da la probabilidad del evento: $x_1 \leq X\leq x_2$

Cuando esta integral es escalado por el derecho del factor de $K$ se describe una familia de distribuciones normales con media de $\mu$ y la desviación estándar $\sigma$

Usted puede demostrar que integra a que la constante K (de modo que al dividir por $K$ , el valor de la integral es $1$, que es lo que lo convierte en una función de densidad) mediante el uso de este truco (utilizado para el caso media=0)

Conjunto I=$C\int e^{-x^2}$ , entonces considere el $\int e^{-y^2}$ , y luego calcular su producto (usando el hecho de que $x^2$ es una constante cuando se la considera como una función de y, y viceversa para x ):

$I^2$=$\int e^{-x^2+y^2}dxdy$ , el uso de un polar cambio de variable: $x^2+y^2=r^2$ (y, por supuesto, un cambio de las regiones de integración.)

La integral está basado en el incumplimiento de los supuestos matemáticos:

http://www.stat.tamu.edu/~genton/2007.AG.De Bernoulli.pdf

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X