4 votos

¿Puedes establecer un límite mínimo para la intercepción Y en R?

Tengo dos series de resultados de pruebas que estoy usando para predecir el rendimiento futuro, usando la regresión múltiple, y he notado que la intercepción y es negativa.

Esto indica que para un estudiante que saca un cero en ambas pruebas predigo que su puntuación será X número negativo.

Esto no es posible con respecto a las pruebas que se están administrando.

Así que me pregunto ahora, ¿hay alguna forma de establecer un límite mínimo para mi y-intercepción ?

1voto

Repmat Puntos 1118

No tengo ni idea de por qué te gustaría eso, pero este debería contener lo que estás buscando.

¿Hay muchos valores ajustados $< 0$ ? Si no es así, no creo que su modelo esté equivocado (per se), es sólo que el estimador (OLS?) no puede ajustar bien los datos (alrededor de 0). Lo más probable es que porque no hay muchos resultados de pruebas en 0?

Podrías hacer una regresión exponencial si de hecho $Y$ es variable de conteo; el modelo de tobillo es otro camino a seguir si buscas una solución de esquina. Pero ambos modelos son más difíciles (que el OLS) de interpretar - porque no son lineales - el OLS es a menudo la elección fácil.

Tenga en cuenta que cuando se fuerza la intercepción, no hay una forma acordada de calcular $R^2$ - y algunos podrían decir que no se puede saber de qué es realmente la medida.

1voto

Nick Stauner Puntos 8220

Podrías considerar un modelado lineal generalizado con una distribución de errores diferente que no puede ser negativa, como la regresión binomial negativa para valores discretos (¿son tus puntuaciones todos números enteros?), la regresión gamma para valores continuos, o la regresión beta para valores continuos con una puntuación mínima y máxima.

Todavía es posible tener una intercepción negativa en un binomio negativo o una regresión beta, pero uno interpreta los coeficientes de manera diferente, así que $ \hat y \ge0 $ si el predictor = 0. Para un ejemplo simulado de regresión NB en r , library(MASS);set.seed(8);x=rnorm(99);y=rnbinom(99,1,.9);glm.nb(y~x)$coefficients[1] encuentra una intercepción = -2.63, pero predict(glm.nb(y~x),newdata=data.frame(x=0),type='response') predice $ \hat y(0)=.07$ .
Regresión Beta: library(betareg);set.seed(8);y=rbeta(99,.1,1);x=rnorm(99);betareg(y~x) da una intercepción = -2.61, pero predict(betareg(y~x),newdata=data.frame(x=0),type='response') muestra $ \hat y(0)=.07$ otra vez.

0voto

Kenny Evans Puntos 1

Siempre se puede configurar una función por piezas que fuerza un cero (u otro min) una vez que alcanza este valor o menos. Pero parece que tus dos conjuntos de puntuaciones no son suficientes para darte un modelo preciso.

0voto

Chasler Puntos 2158

Esto significa que un modelo lineal no es un buen modelo para sus datos. Podrías transformarlo, por ejemplo, tomar el registro de la puntuación. O usar otro modelo que tenga en cuenta que las puntuaciones son todas positivas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X