Edición: He entendido mal su pregunta. Hay dos aspectos:
a) na.omit
y na.exclude
ambos hacen la eliminación de casos con respecto a los predictores y a los criterios. Sólo se diferencian en que las funciones del extractor como residuals()
o fitted()
rellenarán su salida con NA
s para los casos omitidos con na.exclude
, teniendo así una salida de la misma longitud que las variables de entrada.
> N <- 20 # generate some data
> y1 <- rnorm(N, 175, 7) # criterion 1
> y2 <- rnorm(N, 30, 8) # criterion 2
> x <- 0.5*y1 - 0.3*y2 + rnorm(N, 0, 3) # predictor
> y1[c(1, 3, 5)] <- NA # some NA values
> y2[c(7, 9, 11)] <- NA # some other NA values
> Y <- cbind(y1, y2) # matrix for multivariate regression
> fitO <- lm(Y ~ x, na.action=na.omit) # fit with na.omit
> dim(residuals(fitO)) # use extractor function
[1] 14 2
> fitE <- lm(Y ~ x, na.action=na.exclude) # fit with na.exclude
> dim(residuals(fitE)) # use extractor function -> = N
[1] 20 2
> dim(fitE$residuals) # access residuals directly
[1] 14 2
b) El verdadero problema no es esta diferencia entre na.omit
y na.exclude
Parece que no quieres una eliminación por casos que tenga en cuenta las variables de criterio, que es lo que hacen ambos.
> X <- model.matrix(fitE) # design matrix
> dim(X) # casewise deletion -> only 14 complete cases
[1] 14 2
Los resultados de la regresión dependen de las matrices $X^{+} = (X' X)^{-1} X'$ (pseudoinverso de la matriz de diseño $X$ , coeficientes $\hat{\beta} = X^{+} Y$ ) y la matriz del sombrero $H = X X^{+}$ , valores ajustados $\hat{Y} = H Y$ ). Si no desea la eliminación de casos, necesita una matriz de diseño diferente $X$ para cada columna de $Y$ por lo que no hay forma de evitar ajustar regresiones separadas para cada criterio. Se puede intentar evitar la sobrecarga de lm()
haciendo algo parecido a lo siguiente:
> Xf <- model.matrix(~ x) # full design matrix (all cases)
# function: manually calculate coefficients and fitted values for single criterion y
> getFit <- function(y) {
+ idx <- !is.na(y) # throw away NAs
+ Xsvd <- svd(Xf[idx , ]) # SVD decomposition of X
+ # get X+ but note: there might be better ways
+ Xplus <- tcrossprod(Xsvd$v %*% diag(Xsvd$d^(-2)) %*% t(Xsvd$v), Xf[idx, ])
+ list(coefs=(Xplus %*% y[idx]), yhat=(Xf[idx, ] %*% Xplus %*% y[idx]))
+ }
> res <- apply(Y, 2, getFit) # get fits for each column of Y
> res$y1$coefs
[,1]
(Intercept) 113.9398761
x 0.7601234
> res$y2$coefs
[,1]
(Intercept) 91.580505
x -0.805897
> coefficients(lm(y1 ~ x)) # compare with separate results from lm()
(Intercept) x
113.9398761 0.7601234
> coefficients(lm(y2 ~ x))
(Intercept) x
91.580505 -0.805897
Tenga en cuenta que puede haber formas numéricamente mejores de calcular $X^{+}$ y $H$ , se podría comprobar un $QR$ -en lugar de la descomposición. El enfoque SVD se explica aquí en SE . No he cronometrado el enfoque anterior con matrices grandes $Y$ contra el uso real de lm()
.