4 votos

Que las expansiones y las identidades son útiles para aplicar los estadísticos?

Simples relaciones matemáticas como $V(X) = E(X^2) - E(X)^2$, aparte de ser resultados teóricos, son útiles porque permiten a los analistas a hacer de nuevo-de-la-envoltura cálculos, reafirmar resultados para simplificar la interpretación y visualización, y vienen con nuevas estadísticas sobre la marcha.

Estoy pidiendo un útil de expansión o de identidad, y un ejemplo de su utilidad. Obviamente hay muchos; mantener a una identidad por respuesta para que puedan ser votados en forma individual.

La identidad no tiene que ser tan "simple" como la varianza de la expansión anterior, pero que debe ser accesible a los aplicados a los investigadores que tal vez no tienen entrenamiento formal en matemáticas estadísticas.

Ellos no necesitan ser popular o estándar; parte de la idea de esta pregunta es exponer algunas más oscuro, pero los trucos útiles que no se podría encontrar en una introducción a las estadísticas o la regresión de la clase.

Esto está relacionado con Lo que las teorías deberían todos estadístico saber? pero con el alcance limitado a determinadas expresiones matemáticas.

4voto

TrynnaDoStat Puntos 3590

Usted puede llenar los libros de texto para responder esta pregunta, así que voy a seguir adelante y dedicar mi respuesta a algunas de las desigualdades.

Markov en la Desigualdad: si $X$ es no negativo de cualquier variable aleatoria integrable y $a > 0$, luego

$$\mathbb{P}(X \geq a) \leq \frac{\mathbb{E}(X)}{a}$$

La Desigualdad de Chebyshev: vamos a $X$ ser una variable aleatoria integrable con finito valor esperado $\mu$ y finito distinto de cero de la varianza $\sigma^2$. Entonces para cualquier número real $k > 0$

$$\mathbb{P}(|X-\mu|\leq k\sigma) \geq \frac{1}{k^2}$$

Estas dos desigualdades son muy potentes como son válidas para cualquier distribución que la variable aleatoria $X$ proviene. Por ejemplo, si sabemos que una variable aleatoria tiene una media 0 y desviación estándar 1 se sabe que la probabilidad de que esta variable aleatoria a partir de un desconocido de distribución tiene un valor entre -2 y 2 debe ser mayor que el .75.

Cramer-Rao Obligado: supongamos $\theta$ es un desconocido determinista parámetro que es ser estimada a partir de mediciones de $x$. La varianza de cualquier estimador imparcial $\hat{\theta}$ $\theta$ es entonces limitada por el recíproco de la información de Fisher $I(\theta)$.

$$\mathrm{var}(\hat{\theta})\geq\frac{1}{I(\theta)}$$

Esto es poderoso, porque si el imparcial estimado alcanza el límite inferior, a continuación, usted sabe que su estimador imparcial es el mínimo de la varianza del estimador imparcial!

La Desigualdad de Jensen: si $X$ es una variable aleatoria y $f$ es una función convexa, entonces

$$f\left(\mathbb{E}[X]\right) \leq \mathbb{E}\left[f(X)\right]$$

Como Chebyshev y Markov esta desigualdad es aplicable en todo el lugar y por eso es útil!

2voto

trish Puntos 31

Un ejemplo es un teorema conocido como el método delta para encontrar la distribución de una variable aleatoria.

La instrucción es:

Deje $\{X_i\}_{i=1}^n$ ser una secuencia de variables aleatorias, y vamos a $$ \sqrt{n}\left(X_i - \mu\right) \desbordado{d}\rightarrow \operatorname{N} \left(0, \sigma^2\right) \ \forall yo. $$ Entonces, para cualquier función continua $g$ tal que $g'(\mu)$ existe y $g'(\mu) \neq 0$, $$ \sqrt{n}\left(g(X_i) - g(\mu)\right) \desbordado{d}\rightarrow \operatorname{N} \left(0, g'(\mu)^2\sigma^2\right) \ \forall yo. $$

Prácticamente, esto significa que si un conjunto de datos sigue una distribución normal con una media de $\mu$ y la varianza $\sigma^2$, entonces la transformación de los datos por $g$ se obtiene un conjunto de datos con una media de $g(\mu)$ y la varianza $g'(\mu)^2\sigma^2$.

Un simple ejemplo de su uso es enterrado en un libro que describe un programa llamado MARK, en la página B-7 (del libro en el Apéndice B, que también contiene una detallada y muy accesible derivación y la explicación del método):

Supongamos que un investigador cosechado $N$ pescado y se calcula el promedio de masa de un pez en la muestra, $m$, por lo que se puede estimar la biomasa total $\hat B$ de la muestra con $N \times m$. Si la muestra es razonablemente grande, la distribución de muestreo de $m$ es de aproximadamente Gaussiana, por el Teorema del Límite Central. A continuación, $\hat B$ también tiene un aproximado de la distribución Gaussiana, con una desviación estándar $N \times \operatorname{SE}(m)$. Sabiendo esto ahora nos permite llevar a cabo estadístico comparativo de las pruebas de la biomasa en las diferentes muestras.

1voto

alexs77 Puntos 36

$e^x \approx 1+x $ al $x$ es muy cercano a 0.

$\frac{e^x}{1+e^x} \approx e^x$ al $x$ es de un gran número negativo.

Estos son casos especiales, cuando los riesgos relativos son aproximadamente aditivo de riesgos (caso 1) o cuando el cociente de probabilidades son aproximadamente los riesgos relativos. En epidemiología, factores de riesgo que nos interesan pueden tener muy pequeño tamaño del efecto (RR = 1.04 por ejemplo) y la prevalencia de la enfermedad puede ser muy raros (para el tumor de Wilm, por ejemplo). Por lo tanto, hay un sentido de abandono imprudente en el lenguaje que usamos para describir los resultados, el error se comete cuando estadísticos olvidar su tamaño del efecto y los resultados del informe en una manera inconsistente.

1voto

Dipstick Puntos 4869

Uno de los más bayesic - el teorema de Bayes:

$$ P(\theta | D) = \frac{P(\theta)P(D|\theta)}{P(D)} \varpropto P(\theta)P(D|\theta)$$

Usted puede encontrar varios hilos sobre el teorema de Bayes en la CV con la explicación, las explicaciones para los "laicos", útiles libros, y varios ejemplos.

0voto

Dario Castañé Puntos 131

$\sum_{i=1}^\infty a^{i-1}$ = $1\over{1-a}$, para (|a| < 1)

Este es un útil de identidad para un número de razones. Un lugar que se puede usar en la que muestra que la distribución geométrica es en realidad un PMF de la siguiente manera:

$P(X=x|p)$ = $p(1-p)^{x-1}$, $x=1,2,. . . ,$

Para mostrar $\sum_{x=1}^\infty P(X=x)=1$, podemos emplear la identidad:

$\sum_{x=1}^\infty P(X=x)$ = $p\sum_{x=1}^\infty (1-p)^{x-1}$ = $p$$1\over{1-(1-p)}$ = $p\over{p}$ = $1$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X