6 votos

Estadísticas de correlación de la muestra para muestras uniformemente distribuidas

Yo soy de computación de la muestra la correlación entre dos vectores de correlacionadas y distribuidos de manera uniforme las muestras usando MATLAB. Más precisamente, calculo $$ r_N=\frac{1}{N}\sum_{i=1}^N x_{i}\, y_{i}, $$ donde $E(X)=E(Y)={\rm cov}(X,Y)=0$, e $x_{i}, y_{i}$ provienen de una distribución uniforme en $[-A/2,A/2]$. Está claro que $\lim_{N \rightarrow \infty} r_N=0$. Sin embargo, me gustaría para calcular una estimación de $\tilde{N}$ de manera tal que, dado $\epsilon >0$$\alpha >0$, $ {\rm Pr}(|r_N| < \epsilon) < \alpha$ todos los $ N > \tilde{N}$.

En otras palabras, necesito una expresión para la muestra estadística $r_N$. He formulado esta pregunta por uniformemente distribuida de datos; sin embargo me interesa saber lo que ocurre para otras distribuciones (dicen que lo normal).

Alguna idea?

2voto

Oliver M Grech Puntos 161

Su pregunta es, de hecho, pidiendo la muestra finita de distribución de $r_{N}$. A la dirección de su pregunta, permítanme reformular en términos de regresiones lineales. Así un vínculo entre la $r_{N}$ y el ordinario de mínimos cuadrados (OLS) estimador podría ser resaltado. Usted observar dos variables$\left\{ x_{i}\right\} _{i=1}^{N}$$\left\{ y_{i}\right\} _{i=1}^{N}$, y ellos no están correlacionados. Supongamos que se ejecuta una regresión lineal entre $y_{i}$ $x_{i}$, $$ y_{i}=\beta x_{i}+u_{i},\quad i=1,\ldots,N. $$ Desde $y_{i}$ $x_{i}$ no están correlacionados, el verdadero valor de $\beta$ es $0$. Tenga en cuenta que el estimador de MCO de $\beta$ es $$ \hat{\beta}_{N}=\frac{\sum_{i=1}^{N}x_{i}y_{i}}{\sum_{i=1}^{N}x_{i}x_{i}}=\frac{N^{-1}\sum_{i=1}^{N}x_{i}y_{i}}{N^{-1}\sum_{i=1}^{N}x_{i}x_{i}}. $$ Aquí el numerador de $\hat{\beta}_{N}$ es el $r_{N}$. Yo no imponer cualquier distribución de los supuestos acerca de la $x_{i}$$y_{i}$, por lo que no hay pérdida de generalidad en que se incurrió. Basado en esta relación, podemos enfoque su pregunta mediante la distribución de $\hat{\beta}_{N}$. Sin embargo, es bien sabido que la muestra finita de distribución de $\hat{\beta}_{N}$ no está disponible en la mayoría de los casos. En consecuencia, mi conclusión es pesimista en que el 'exacta' respuesta a su pregunta podría no existir en la mayoría de los de los casos. Pero un aproximado de $\tilde{N}$ puede ser fácil de encontrar desde $\hat{\beta}_{N}$ es asintóticamente normal.

En primer lugar, considerar una muestra finita caso. Si $\left\{ x_{i}\right\} _{i=1}^{N}$ se fija en el experimento, y $\left\{ y_{i}\right\} _{i=1}^{N}$ son yo.yo.d. normal con una media de $0$ y la varianza $\sigma^{2}$. Entonces es bien conocido que $$ \hat{\beta}_{N}\mid x_{1},\ldots,x_{N}\sim N\left(\beta\frac{\sigma^{2}}{N}\left(\frac{\sum_{i=1}^{N}x_{i}^{2}}{N}\right)^{-1}\right). $$ En consecuencia, $$ r_{N}\mid x_{1},\ldots,x_{N}\sim N\left(0,\frac{\sigma^{2}}{N}\left(\frac{\sum_{i=1}^{N}x_{i}^{2}}{N}\right)\right). $$ Denotar $\sigma_{r,N}^{2}=\left(\sigma^{2}/N\right)\left(\sum_{i=1}^{N}x_{i}^{2}/N\right)$, y tenga en cuenta que $\sigma_{r,N}$ es monótona decreciente con respecto a $N$. Luego se le da $\varepsilon$,$\Pr\left(\left|r_{N}\right|<\varepsilon\right)=1-2\Phi\left(-\varepsilon/\sigma_{r,N}\right)$. Por dejar que $ $$1-2\Phi\left(-\varepsilon/\sigma_{r,N}\right)=\alpha$, usted puede solucionar $\tilde{N}$. (Comentario: creo que usted está solicitando dicha un $\tilde{N}$ que $\Pr\left(\left|r_{N}\right|<\varepsilon\right)\geq\alpha$ para todos los $N>\tilde{N}$.) Pero estos argumentos se basan en las propiedades de distribuciones normales.

A continuación, considere la ampliación de la muestra de casos ($N\rightarrow \infty$), donde $x_i$ podría ser al azar. Supongamos $\left\{ x_{i}\right\} _{i=1}^{N}$ $\left\{ y_{i}\right\} _{i=1}^{N}$ satisfacer la regularidad de las condiciones de la LLN y CLT. Asintóticamente, tenemos $$ \hat{\beta}_{N}\rightarrow_{d}N\left(\beta\frac{\sigma^{2}}{N}P^{-1}\right)\quad Q=\mathrm{{plim}}_{N\rightarrow\infty}\frac{\sum_{i=1}^{N}x_{i}^{2}}{N}, $$ donde $\sigma^{2}$ es la variación de $y_{i}$. Por Slutsky lema, tenemos $$ r_{N}\rightarrow_{d}N\left(0,\frac{\sigma^{2}}{N}P\right). $$ Es obvio que $\sigma_{r,N}^{2}$ es un estimador consistente de $\left(\sigma^{2}/N\right)Q$. A continuación, un aproximado de $\tilde{N}$ puede se encuentra en la misma manera.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X