52 votos

¿Son errores aleatorios necesariamente gaussiana?

He visto errores aleatorios se define como aquellos que media a 0 como el número de mediciones va al infinito, y que el error es igualmente probable que sea positiva o negativa. Esto sólo requiere una distribución de probabilidad simétrica alrededor de cero. Sin embargo escribir esta pregunta en Google, no encontré una sola fuente que sugiere errores aleatorios podrían ser otra cosa que gauss. ¿Por qué debe gaussiano errores aleatorios?

65voto

DanielSank Puntos 9248

Son errores aleatorios necesariamente de gauss?

Los errores son muy a menudo de Gauss, pero no siempre. Aquí están algunos sistemas físicos donde las fluctuaciones aleatorias (o "errores" si usted está en un contexto, con lo que la variable que constituye un error) no Gaussiano:

  1. La distribución de los tiempos entre los clics en un fotodetector se expone a la luz es una distribución exponencial.$^{[a]}$

  2. El número de veces que un fotodetector de clics en un período de tiempo fijo es una distribución de Poisson.

  3. La posición de desplazamiento, debido a uniformemente distribuida ángulo de errores, la luz de un rayo golpea un objetivo a cierta distancia es una distribución de Cauchy.

He visto los errores aleatorios se definen como aquellos que tienen un promedio de 0 como el número de mediciones que se extiende hacia el infinito, y que el error es igualmente probable que sea positivo o negativo. Esto sólo requiere un simétrica distribución de probabilidad sobre cero.

Hay distribuciones que tienen igual peso en los lados positivos y negativos, pero nosimétrica. Ejemplo: $$ P(x) = \left\{ \begin{array}{ll} 1/2 & x=1 \\ 1/4 & x=-1 \\ 1/4 & x=-2 \, . \end{array}\right.$$

Sin embargo escribir esta pregunta en Google, no he podido encontrar una sola fuente, lo que sugirió a los errores aleatorios podría ser otra cosa que gaussiano. Por eso se debe a los errores aleatorios se gaussiano?

El hecho de que no es fácil encontrar referencias a la no-aleatoria Gaussiana errores no significa que todos los errores aleatorios son de Gauss :-)

Como se ha mencionado en las otras respuestas, muchas distribuciones de Naturaleza Gaussiana debido al teorema del límite central. El teorema del límite central dice que dada una variable aleatoria $x$ distribuido de acuerdo a una función de $X(x)$, si $X(x)$ ha finito segundo momento, luego se da otra variable aleatoria $y$ definida como el promedio de los muchos casos de $x$, es decir, $$y \equiv \frac{1}{N} \sum_{i=1}^N x_i \, ,$$ la distribución de $Y(y)$ es Gaussiano.

La cosa es que, muchos de los procesos físicos que son las sumas de los más pequeños de procesos. Por ejemplo, la fluctuación de la tensión a través de un resistor es la suma de la tensión de las contribuciones de muchos electrones. Por lo tanto, al medir una tensión, se obtiene la subyacente "estática" valor", además de algunos errores aleatorios producidos por el ruido de los electrones, que por el teorema del límite central es Gaussiano distribuido. En otras palabras, la distribución Gausiana son muy comunes debido a que muchas de las cosas al azar en la Naturaleza de una suma de muchas pequeñas contribuciones.

Sin embargo,

  1. Hay un montón de casos en los que los componentes de un error subyacente mecanismo de distribución ¿ no es finita segundo momento; la distribución de Cauchy es el ejemplo más común.

  2. También hay un montón de casos en los que un error no es simplemente la suma de muchos pequeños subyacente contribuciones.

En cualquiera de estos casos, conducir a la no-Gaussiano errores.

$[a]$: Consulte este otro Intercambio de la Pila post.

16voto

lmr Puntos 149

La razón es, probablemente, el teorema del límite central: Cuando se agrega un montón de variables aleatorias independientes, su suma se forma una distribución normal, con independencia de sus distribuciones de probabilidad. Esto hace que las distribuciones normales podemos adivinar si usted no tiene información sobre el origen del error o si usted tiene múltiples fuentes de error. Además, las distribuciones normales a menudo se producen en los procesos del mundo real.

11voto

Jos Gibbons Puntos 190

Respuestas aquí, en general, han abordado la pregunta de si empírica de las variables deben ser de Gauss, pero 21joanna12 se le preguntó acerca de los errores experimentales, en que se admite una completamente diferente de análisis. El mejor recurso en que la pregunta le puedo recomendar es el Capítulo 7 de la Teoría de la Probabilidad: La Lógica de la Ciencia por E T Jaynes. En resumen, hay buenas razones errores de Gauss (aunque no literalmente siempre):

  • Seg 7.2 considera la Herschel-Maxwell derivación, la cual muestra que un vector con valores de error de dimensión $\ge 2$ con la no correlación de los errores en Cartesianas ortogonales componentes, y un esféricamente simétrica de distribución, debe tener un módulo de Gauss. (Bueno, en realidad el libro sólo se comprueba la $2$-dimensional caso de forma explícita, pero el argumento es fácilmente extensible.)
  • Seg 7.3 considera que el Gauss derivación, que muestra una distribución de Gauss es la única manera para que el MLE de un parámetro de localización a ser igual a la media aritmética de los datos. La notación se supone $1$-dimensional de datos, pero creo que el argumento se generaliza siempre el error de coordenadas Cartesianas están correlacionadas.
  • Seg 7.5 considera el Landó de derivación, el cual presenta una Taylor-serie argumento de que una 1D error $e$ de la varianza finita y cero significa que tiene un pdf, decir $p$, que satisface la ecuación de difusión de la $\partial_{\sigma^2}p=\frac{1}{2}\partial_e^2 p$ $\sigma^2$ de la varianza del parámetro. El requisito de que $\sigma^2=0\implies e=0$ implica entonces la solución es Gaussiano.
  • Seg 7.9 muestra que, Sin información previa, de una 1D error de distribución tiene la siguiente propiedad iff es Gaussiano: la única opción de $w_i\ge 0$ $\sum_i w_i=1$ que minimiza la varianza de un estimador $\sum_i w_i x_i$ de la media de la muestra, con el $x_i$ $n$ datos empíricos, es $w_i=n^{-1}$.
  • Un punto relacionado discutido en Segundos 7.11 es que un error de finito dado media y la varianza maximiza la entropía objeto de que la información iff su distribución es Gaussiana. Jaynes argumenta que cualquier no-entropía-maximizar el modelo exagera lo mucho que se puede inferir, a partir de nuestro conocimiento limitado.

Sin embargo, el corto Segundos 7.12 (que reproduzco en su totalidad) da ejemplos donde no esperamos Gaussiano errores:

Una vez que entendemos las razones para el éxito de Gauss inferencia, también podemos ver en muy raras circunstancias especiales donde una diferente distribución de muestreo sería mejor expresar nuestro estado de conocimiento. Por ejemplo, si sabemos que los errores son generados por el inevitable e incontrolable de rotación de algún objeto pequeño, de tal manera que cuando está en ángulo de $\theta$, el error es$e=\alpha\cos\theta$, pero el ángulo real es desconocida, un poco de análisis muestra que el estado de la probabilidad de asignación de $p(e|t)=(\pi\sqrt{\alpha^2-e^2})^{-1},\,e^2<\alpha^2$, describe correctamente nuestro estado de conocimiento sobre el error. Por lo tanto, debe ser utilizado en lugar de la distribución Gaussiana; ya que tiene un fuerte límite superior, es posible que el rendimiento sensiblemente mejores estimaciones que sería el de Gauss – incluso si $\alpha$ es desconocido y por lo tanto debe ser estimada a partir de los datos (o tal vez es el parámetro de interés para la estimación).

O, si el error es conocido por tener la forma $e = \alpha\tan\theta$ pero $\theta$ es desconocido, encontramos que la probabilidad anterior es la distribución de Cauchy $p(e|I) = \pi^{−1}\alpha/(\alpha^2 + e^2)$. Aunque este caso es raro, vamos a encontrar un instructivo ejercicio para analizar la inferencia con una de Cauchy de muestreo distribución, porque cualitativamente diferentes cosas pueden suceder. La ortodoxia se refiere a esto como "una patológico, caso excepcional' como un árbitro ponerlo, pero no causa dificultad en el análisis Bayesiano, que nos permite comprender.

Nota: en estos ejemplos utilizan las mismas técnicas Bayesianas como Segundos 7.11.

7voto

Terry J Puntos 455

Hay muchos ejemplos de fenómenos físicos que parecen estar regidas por los no-Gaussiano estadísticas. Por ejemplo, la tasa de distribución que surge en la dispersión múltiple de la luz en medios turbios, donde los fotones de longitud de ruta de acceso de la siguiente manera esta distribución.

Creo que cualquier momento usted tiene poco, pero los eventos más importantes, va a ver a los no-Gaussiano estadísticas, así como con la distribución de las manchas solares, el tiempo entre las inversiones geomagnéticas, etc. El Gauss es agradable ya que conduce a la relativamente fácil determinaciones analíticas (además de las razones ya expuestas). En un sistema dinámico en el nivel de espacio entre líneas de energía se rigen (universalmente) por las estadísticas de Poisson para el caso de nonchaotic sistemas, frente a Wigner-tipo de estadísticas para los sistemas caóticos.

El campo de la Exacción de los vuelos es enorme. Especialmente en láser de refrigeración. Este libro es excelente: Lévy Estadísticas y Láser de Refrigeración: de Cómo los Eventos Raros Traer a los Átomos Resto

7voto

Glomek Puntos 12183

Varias respuestas aparecen aquí; voy a añadir algo que no está aquí todavía.

En primer lugar, con el fin de que los errores aleatorios tienen valor esperado $0$ y ser la misma probabilidad de ser positivo o negativo, es que no es necesario que su distribución sea simétrico con respecto al $0.$ Es fácil encontrar un montón de contraejemplos para que.

Ahora supongamos que $$ Y_i = \alpha_0 + \alpha_1 x_{1,i} + \cdots + \alpha_p x_{p,i} + \varepsilon_i \text{ para } i=1,\ldots,n. $$ Suponemos

  • Los errores de $\varepsilon_i$ son aleatorios; los términos de $\alpha_0 + \alpha_1 x_{1,i} + \cdots + \alpha_p x_{p,i}$ no lo son. "Al azar" en efecto significa que cada vez que se toma una nueva muestra de $(Y_1,\ldots,Y_n)$ $n$ errores de cambio, independientemente de lo que eran para los ejemplos anteriores de $n$ observaciones. Pero el $n\times p$ números de $x_{1,i},\ldots,x_{p,i}$ $i=1,\ldots,n$ no cambio; por lo tanto no son al azar.

  • El valor esperado de cada error es $0.$

  • Los errores que todos tienen la misma varianza $\sigma^2.$
  • Los errores no están correlacionados unos con otros.

Aquí están algunas de las cosas que hacemos no asumir:

  • Softonic no asumir los errores están distribuidos normalmente, o "Gaussiano", si te gusta.
  • Softonic no asumir que todos los errores tienen la misma distribución.
  • Softonic no asumir los errores son independientes. Uncorrelatedness es un supuesto más débil.

Observe que el de mínimos cuadrados estimación $\widehat\alpha_k$ $\alpha_k$ es una combinación lineal $$c_1 Y_1+\cdots + c_n Y_n, \tag 1$$ where the coefficients $c_1,\ldots,c_n$ depend on the $n\times p$ numbers $x_{1,i},\ldots,x_{p,i}$ for $i=1,\ldots,n.$

Bajo estos supuestos, podemos mostrar que entre todas las combinaciones lineales $(1)$ que son imparciales de los estimadores de $\alpha_k,$ el uno con el menor error cuadrático medio de la estimación es la que produce los mínimos cuadrados estimados.

Que es el de Gauss–Markov teorema.

Por lo tanto no necesitamos una distribución de Gauss para llegar a esta conclusión.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X