Operando bajo su suposición de que x3=x1x2x3=x1x2 y x4=x1/x2x4=x1/x2 como posibles variables explicativas en un modelo de respuesta. YY (y, por tanto, no se abandonan sumariamente porque puedan ser un poco inconvenientes), puede ser útil considerar formas alternativas de expresar este modelo.
Como se ha dicho, el modelo es de la forma
Y∼F(x1,x2,x3,x4;θ)=F(x1,x2,x1x2,x1/x2;θ)Y∼F(x1,x2,x3,x4;θ)=F(x1,x2,x1x2,x1/x2;θ)
para una familia de distribuciones determinada FF con parámetros desconocidos θθ por determinar. Por ejemplo, un modelo de regresión lineal implicaría un parámetro de cinco dimensiones θ=(β0,β1,β2,β3,β4)θ=(β0,β1,β2,β3,β4) de la forma
E[Y]=β0+β1x1+β2x2+β3x3+β4x4=β0+β1x1+β2x2+β3x1x2+β4x1/x2.E[Y]=β0+β1x1+β2x2+β3x3+β4x4=β0+β1x1+β2x2+β3x1x2+β4x1/x2.
Para simplificar la exposición, vamos a analizar el modelo de regresión lineal: quedará claro cómo se extiende el análisis a otros modelos.
Una forma es replantear el modelo en términos de x4x4 y x2,x2, que algebraicamente implican x1=x2x4x1=x2x4 y x3=x22x4:x3=x22x4:
E[Y]=β0+β1x4x2+β2x2+β3x4x22+β4x4=β0+β2x2+β4x4+x4(β1x2+β3x22).E[Y]=β0+β1x4x2+β2x2+β3x4x22+β4x4=β0+β2x2+β4x4+x4(β1x2+β3x22).
El último término se caracterizaría ordinariamente como un interacción entre x4x4 y una función cuadrática de x2.x2. Puesto que, salvo en circunstancias muy especiales, las interacciones sólo deben incluirse cuando se incluyen los términos que las componen, esto sugiere que debe ampliar el modelo para incluir un x22x22 plazo. Tendría la forma
E[Y]=β0+(β2x2+β5x22)+β4x4+x4(β1x2+β3x22).E[Y]=β0+(β2x2+β5x22)+β4x4+x4(β1x2+β3x22).
Se trata de un modelo que implica (a) x4x4 y (b) la más simple posible spline cuadrático de x2.x2. Estos modelos son habituales: los términos cuadráticos permiten cierta respuesta no lineal en x2x2 y la interacción permite que la respuesta cambie con diferentes valores de x4x4 de forma controlada.
Estas sencillas manipulaciones algebraicas demuestran que el modelo propuesto no tiene nada de extraño. Lo replantean en términos de conceptos estándar y bien entendidos.
Queda la cuestión de la colinealidad. Que la colinealidad puede ser un problema lo demuestra el caso en que ambos x1x1 y x2x2 son variables binarias codificadas como ±1.±1. En este caso, x1/x2x1/x2 y x1x2x1x2 son siempre igual (no sólo colineales).
Por otra parte, que la colinealidad podría no ser un gran problema puede demostrarse exhibiendo algunos datos de muestra con relativamente poca colinealidad. Nos gustaría x2x2 sea ortogonal a x22,x22, por supuesto, y entonces todo irá bien siempre que las interacciones no introduzcan colinealidad. Desgraciadamente, x4x4 y x4x22x4x22 es probable que estén correlacionadas positivamente. Pero, ¿en qué medida?
Considere los datos x2=(−1,0,1,−1,0,1,−1,0,1)x2=(−1,0,1,−1,0,1,−1,0,1) y x4=(−1,√3,−1,0,0,0,1,−√3,1).x4=(−1,√3,−1,0,0,0,1,−√3,1). La matriz de covarianza de las columnas (x2,x22,x4x2,x4,x4x22)(x2,x22,x4x2,x4,x4x22) es
(3000001000002000005200022)/4.
Es casi ortogonal, con correlación sólo entre las dos últimas variables (como era de esperar). (Obsérvese que la introducción de x22 no ha cambiado nada, porque esta variable es ortogonal a todas las demás). La relación entre el mayor y el menor valor propio (su número de condición) es 6. No es bonito, pero tampoco está mal. Se podrían obtener fácilmente estimaciones fiables de los coeficientes con tales variables explicativas.
Si no puede permitirse el lujo de elegir los valores de x2 y x4 para organizar tal casi ortogonalidad, entonces simplemente tendrá que proceder como cualquiera haría siempre en tales casos: investigar los datos que tiene y tratar cualquier colinealidad de las formas habituales (que incluirían ignorarla; eliminar variables basándose en consideraciones científicas; seleccionar algunos componentes principales; utilizar un Lasso; etc.).