4 votos

Varianza asintótica imparcial

Problema: Vamos a $X_1,...,X_n$ ser indep. r.v.'s que satisfacer, para $i = 1,...,n$, $E(X_i) = \mu_i(\theta)$ & $\mathrm{Var}(X_i)= \sigma_i^2(\theta)$.

$\theta$ es el parámetro de interés y las formas funcionales $\mu_i(.)$ $\sigma_i^2(.)$ son conocidos. Entre todos imparcial de la estimación de ecuaciones de la forma

$\hspace{15mm}\sum_{i=1}^{n}g_i(\theta)(X_i-\mu_i(\theta))=0$ $(*)$,

¿cuál es la forma óptima de $g_i(\theta)$ que minimiza la varianza asintótica de la solución de $\hat{\theta}$$(*)$?

Se supone que el $\hat{\theta}$ es la solución única de $(*)$ e es $\sqrt{n}$ consistente para $\theta$ y asintóticamente normal.

Esta pregunta es bastante difícil. Cualquier visión sería muy apreciada.

3voto

Michael Puntos 5270

Aquí hay dos enfoques. Yo no estoy reclamando optimalidad. Puede haber mejores maneras de tratar este problema.

Supongamos que conocemos $\theta$ es en cierto intervalo de $\mathcal{Z}$ (posiblemente el conjunto de todos los números reales). Suponga que cada una de las $\mu_i(\theta)$ función es diferenciable y es estrictamente creciente o estrictamente decreciente en a $\theta$. Sin pérdida de generalidad, supongamos que cada uno es estrictamente creciente (otra cosa, simplemente defina $Y_i =-X_i$). Definir $\beta_i$ como mínimo de la pendiente de $\mu_i(\theta)$$\theta \in \mathcal{Z}$, y asumir la $\beta_i>0$ todos los $i$.

Estrategia 1: $g_i(\theta) = \beta_i/\sigma_i^2(\theta)$

Estrategia 2: $g_i(\theta) = \mu'_i(\theta)/\sigma_i^2(\theta)$

La intuición detrás de la estrategia 2 es el que se intenta encontrar un valor más exacto de la pendiente sobre el punto de $\theta$ de interés, útil cuando nuestro adivinar $\hat{\theta}$ ya está bastante cerca de la verdadera respuesta. No existe información acerca de la pendiente, tenemos que utilizar el global min $\beta_i$. A continuación analizo cómo he llegado con la estrategia 1.

Estimación de la ecuación y los supuestos

Su estimador encuentra $\hat{\theta} \in \mathcal{Z}$, determinado a partir de $X = (X_1, \ldots, X_n)$, como la solución a la siguiente estimación de la ecuación:

$$ \sum_{i=1}^n g_i(\hat{\theta})(X_i - \mu_i(\hat{\theta}))=0 $$

Para $X=(X_1, \ldots, X_n)$, e $z \in \mathcal{Z}$, definir: $$ h(X,z) = \sum_{i=1}^ng_i(z)(X_i-\mu_i(z)) $$

La estimación de la ecuación es equivalente a $h(X, \hat{\theta})=0$.

Hipótesis 1:

Suponga $g_i(z)\geq 0$ todos los $i\in\{1, \ldots, n\}$ y todos los $z\in\mathcal{Z}$.

Hipótesis 2:

Suponga que para todos sea posible $X = (X_1, \ldots, X_n)$, la función de $h(X,z)$ es nonincreasing en $z$, por lo que el $z_1\leq z_2$ implica $h(X,z_1)\geq h(X,z_2)$.

Desarrollo de la estrategia 1:

Definir $\hat{\theta}$ como la solución para la estimación de la ecuación, y definir $\delta = \hat{\theta} - \theta$ como el error. Fix $\epsilon>0$ y definir : $$Y = \sum_{i=1}^ng_i(\theta+\epsilon)X_i$$ Si $\delta\geq\epsilon$, entonces: \begin{eqnarray} 0 &=& h(X,\hat{\theta})\\ &=& h(X,\theta + \delta) \\ &\leq& h(X,\theta + \epsilon)\\ &=& \sum_{i=1}^ng_i(\theta+\epsilon)(X_i-\mu_i(\theta+\epsilon))\\ &\leq&\sum_{i=1}^ng_i(\theta+\epsilon)(X_i - \mu_i(\theta))-\epsilon\sum_{i=1}^ng_i(\theta+\epsilon)\beta_i\\ &=&Y - E[Y] - \epsilon\sum_{i=1}^ng_i(\theta+\epsilon)\beta_i \end{eqnarray} donde la primera desigualdad se utiliza el nonincreasing asunción, y la segunda utiliza el hecho de que $\beta_i$ es el mínimo de la pendiente de $\mu_i(\theta)$. Por lo tanto: $$ Pr[\delta \geq \epsilon] \leq Pr\left[Y \geq E[Y] + \epsilon\sum_{i=1}^ng_i(\theta+\epsilon)\beta_i\right] $$ Por la desigualdad de Chebyshev se sostiene que:

\begin{eqnarray} Pr\left[Y\geq E[Y] + \epsilon\sum_{i=1}^ng_i(\theta+\epsilon)\beta_i\right] &\leq& \frac{Var(Y)}{\epsilon^2(\sum_{i=1}^ng_i(\theta+\epsilon)\beta_i)^2}\\ &=& \frac{\sum_{i=1}^ng_i(\theta+\epsilon)^2\sigma_i(\theta)^2}{\epsilon^2(\sum_{i=1}^ng_i(\theta+\epsilon)\beta_i)^2} \end{eqnarray}

Una similar bound puede ser derivado a $Pr[\delta \leq -\epsilon]$. Poniendo a estos en conjunto, se obtiene: $$ Pr[|\delta|\geq \epsilon] \leq \frac{\sum_{i=1}^ng_i(\theta+\epsilon)^2\sigma_i(\theta)^2}{\epsilon^2(\sum_{i=1}^ng_i(\theta+\epsilon)\beta_i)^2} + \frac{\sum_{i=1}^ng_i(\theta-\epsilon)^2\sigma_i(\theta)^2}{\epsilon^2(\sum_{i=1}^ng_i(\theta-\epsilon)\beta_i)^2} $$

Ahora tiene sentido el diseño de $g_i(\theta)$ a minimizar el lado derecho de la anterior obligado. Para simplificar, supongamos $\epsilon \approx 0$. Esto motiva una precisa del problema de optimización se define a continuación.

Problema de optimización:

Para cada una de las $\theta \in \mathcal{Z}$,$\sigma_i(\theta)$$\beta_i$, y debemos encontrar los valores de $g_i(\theta)$ resolver:

Minimizar: $\frac{\sum_{i=1}^n g_i(\theta)^2\sigma_i(\theta)^2}{\left(\sum_{i=1}^ng_i(\theta)\beta_i\right)^2}$

De tal forma que: $g_i(\theta) > 0 \: \mbox{for all $i\in\{1, \ldots n\}$}$.

Es evidente que la ampliación de una solución de $(g_1(\theta), \ldots, g_n(\theta))$ por una constante positiva $\gamma$ no va a cambiar la relación. Por lo tanto, el problema es equivalente a:

Minimizar: $\sum_{i=1}^n g_i(\theta)^2\sigma_i(\theta)^2$

De tal forma que: $\sum_{i=1}^n g_i(\theta)\beta_i=1 \: , \: g_i(\theta)>0 \: \forall i \in \{1, \ldots, n\}$

Un multiplicador de Lagrange enfoque le da la solución de la $g_i(\theta) = \gamma \beta_i/\sigma_i(\theta)^2$ donde $\gamma$ es cualquier constante positiva. Por supuesto, para mantener la coherencia, esperamos que estas funciones satisfacen la Hipótesis 2.

Otro enfoque

Otro enfoque observa $(X_1, \ldots, X_n)$ y elige $\hat{\theta}$ a minimizar un "ponderado de la varianza empírica" de la expresión:

$$ \sum_{i=1}^nc_i(\hat{\theta})(X_i-\mu_i(\hat{\theta}))^2 $$

para algunos la elección de $c_i(\hat{\theta})$ funciones. Supongamos $c_i(\hat{\theta})=1/2$ todos los $i\in \{1, \ldots, n\}$. Tomando un derivado, esto se traduce en que el estimador que se encuentra $\hat{\theta}$ a partir de la ecuación:

$$ \sum_{i=1}^n \mu_i'(\hat{\theta})(X_i-\mu_i(\hat{\theta}))=0 $$

que tiene la misma estructura que la estimación de la ecuación en el caso especial cuando $g_i(\hat{\theta}) = \mu_i'(\hat{\theta})$.

Resultados ampliados

En realidad, puedo mostrar el resultado de un largo que casi no tiene supuestos sobre las funciones $g_i(z)$, $\mu_i(z)$, $\sigma_i(z)^2$ (así monotonía no es necesario). Asumir:

1) El $\mathcal{Z}$ posible $\theta$ es un conjunto compacto.

2) $\sum_{i=1}^n g_i(z)(X_i-\mu_i(z))=0$ tiene al menos una solución de $z \in \mathcal{Z}$ todos los $n$ y todos los $(X_1, \ldots, X_n)$.

3) $g_i(z)$ $\mu_i(z)$ son funciones continuas sobre $z \in \mathcal{Z}$.

4) Las desviaciones satisfacer $\sum_{i=1}^{\infty} \frac{g_i(\theta)^2\sigma_i(\theta)^2}{i^2}<\infty$

5) La secuencia de las estimaciones de la $\hat{\theta}_n$ resuelve la estimación de la ecuación para cada una de las $n \in \{1, 2, 3, \ldots\}$.

Entonces, con probabilidad 1, cualquier convergente larga de la estimación de la secuencia de $\{\hat{\theta}_n\}_{n=1}^{\infty}$ converge a un punto de $z^* \in \mathcal{Z}$ que resuelve el siguiente límite de la ecuación: $$ \lim_{n\rightarrow\infty} \frac{1}{n}\sum_{i=1}^ng_i(z^*)(\mu_i(\theta)-\mu_i(z^*)) = 0 $$ En particular, si $z^*=\theta$ es la única solución para el límite de la ecuación, entonces la estimación de la secuencia converge a $\theta$ con una probabilidad de 1.

Me pregunto si este resultado se conoce, o es nuevo?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X