Así, me parece que la función de pesos en lm da más peso a las observaciones cuanto mayor es el valor de "peso" de la observación asociada, mientras que la función lme en lme hace precisamente lo contrario. Esto se puede comprobar con una simple simulación.
#make 3 vectors- c is used as an uninformative random effect for the lme model
a<-c(1:10)
b<-c(2,4,6,8,10,100,14,16,18,20)
c<-c(1,1,1,1,1,1,1,1,1,1)
Si ahora se ejecuta un modelo en el que se ponderan las observaciones en base a la inversa de la variable dependiente en lm, sólo se puede generar el mismo resultado exacto en nlme si se pondera sólo por la variable dependiente, sin tomar la inversa.
summary(lm(b~a,weights=1/b))
summary(lme(b~a,random=~1|c,weights=~b))
Se puede dar la vuelta a esto y ver que lo contrario es cierto - especificar pesos=b en lm requiere pesos=1/b para obtener un resultado lme que coincida.
Por lo tanto, entiendo esto mucho, sólo quiero la validación en una cosa y hacer una pregunta sobre otro.
- Si quiero ponderar mis datos basándome en la inversa de la variable dependiente, ¿está bien codificar weights=~(dependent variable) dentro de lme?
- ¿Por qué lme está escrito para manejar los pesos de manera completamente diferente a lm? ¿Cuál es el propósito de esto, además de generar confusión?
Se agradece cualquier idea al respecto.