6 votos

¿Dos pistas entre 0 y 1, ni diferente de 0, podrían ser diferentes entre sí?

Estoy leyendo un papel que no informe de los coeficientes de dos regresiones de MCO. En ambos casos hay 1 variable de respuesta y 1 variable predictora. La variable de predicción es la misma en ambos casos. Sé que el tema del papel de bueno, que me lleva a creer que el medio de las pistas son casi ciertamente entre 0 y 1. Aunque las pendientes de estas dos regresiones no son reportados, el autor señala que ni la pendiente es significativamente diferente de 0 (p ≥ 0,05).

Si ni la pendiente es diferente de 0, pero ambas vertientes están entre 0 y 1, podrían las laderas ser diferentes unos de otros?

Para tratar de averiguar esto, hice una prueba rápida en R. he utilizado dos pistas que eran muy diferentes (0.99 0.01), pero eligió s.e. para cada uno de los que haría de ellos apenas "insignificante". Para comparar las pistas, he utilizado la fórmula de la respuesta a ESTA pregunta.

pnorm( 
  (0.99 - 0.01)/ #difference between means
  sqrt(0.61^2 + 0.0062^2), #sqrt of sum squares of s.e.'s
  lower.tail=FALSE
)

OK, así que esto rápido y sucio de la prueba sugiere que los dos pistas en el análisis del autor no puede ser diferente.

Es necesariamente cierto que si dos pendientes son entre 0 y 1, y ni diferente de 0, que no pueden ser significativamente diferentes unos de otros?

5voto

jldugger Puntos 7490

Depende de cómo se hagan las pruebas. Por ejemplo, considere la posibilidad de este modelo para las tres variables $x$, $y_0$, y $y_1$:

$$\casos{ \mathbb{E}[y_0] = \beta_{0} + \beta_{1}x \\ y_1 = y_0 + \gamma x }$$

where $\beta_0$, $\beta_1$, and $\gamma$ are parameters and $\gamma$ is the difference in slopes. Evidently

$$ \mathbb{E}[y_1] = \mathbb{E}[y_0 + \gamma x] = (\beta_{0} + \beta_{1}x) + \gamma x = \beta_0 + \beta_2 x$$

with $\beta_2 = \beta_1 + \gamma$. Then it is possible for estimates $\widehat{\beta}_1$ and $\widehat{\beta}_2$ to be indistinguishable from zero while determining, via regressing $y_1-y_0 = \gamma x$ against $x$, that $\widehat{\gamma}$ differs significantly from zero. The key idea is that $y_1$ and $y_0$ are not independent.


As an example here are simulated data in R:

n <- 10
x <- 1:n
delta <- x / n^2
y.0 <- residuals(lm(rnorm(n) ~ x)) + delta/2
y.1 <- y.0 + delta
pairs(cbind(x, delta, y.0, y.1))

Scatterplot matrix

Neither of the regressions $y_i \sim x$ is significant ($\widehat{\beta}_0 = 1/200,$ $p=0.937$ and $\widehat{\beta}_1 = 3/200$, $p=0.812$):

> summary(lm(y.0 ~ x))

            Estimate Std. Error t value Pr(>|t|)
(Intercept)  0.00000    0.37903   0.000    1.000
x            0.00500    0.06109   0.082    0.937

> summary(lm(y.1 ~ x))

             Estimate Std. Error t value Pr(>|t|)
(Intercept) 5.266e-17  3.790e-01   0.000    1.000
x           1.500e-02  6.109e-02   0.246    0.812

The regression of $y_1 - y_0 \sim x$ is extremely significant ($\widehat{\gamma} = 1/100,$ $p \lt 2\times 10^{-16}$):

> summary(lm((y.1 - y.0) ~ x))

             Estimate Std. Error   t value Pr(>|t|)    
(Intercept) 2.633e-17  1.415e-17 1.860e+00   0.0999 .  
x           1.000e-02  2.281e-18 4.384e+15   <2e-16 ****

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X