Operando bajo su suposición de que $x_3=x_1x_2$ y $x_4=x_1/x_2$ como posibles variables explicativas en un modelo de respuesta. $Y$ (y, por tanto, no se abandonan sumariamente porque puedan ser un poco inconvenientes), puede ser útil considerar formas alternativas de expresar este modelo.
Como se ha dicho, el modelo es de la forma
$$Y \sim F(x_1, x_2, x_3, x_4; \theta) = F(x_1, x_2, x_1x_2, x_1/x_2; \theta)$$
para una familia de distribuciones determinada $F$ con parámetros desconocidos $\theta$ por determinar. Por ejemplo, un modelo de regresión lineal implicaría un parámetro de cinco dimensiones $\theta = (\beta_0, \beta_1, \beta_2, \beta_3, \beta_4)$ de la forma
$$E[Y] = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \beta_3 x_3 + \beta_4 x_4 = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \beta_3 x_1x_2 + \beta_4 x_1/x_2.$$
Para simplificar la exposición, vamos a analizar el modelo de regresión lineal: quedará claro cómo se extiende el análisis a otros modelos.
Una forma es replantear el modelo en términos de $x_4$ y $x_2,$ que algebraicamente implican $x_1=x_2x_4$ y $x_3=x_2^2x_4:$
$$E[Y] = \beta_0 + \beta_1 x_4x_2 + \beta_2 x_2 + \beta_3 x_4x_2^2 + \beta_4 x_4 = \beta_0 + \beta_2 x_2 + \beta_4 x_4 + x_4\left(\beta_1 x_2 + \beta_3 x_2^2\right).$$
El último término se caracterizaría ordinariamente como un interacción entre $x_4$ y una función cuadrática de $x_2.$ Puesto que, salvo en circunstancias muy especiales, las interacciones sólo deben incluirse cuando se incluyen los términos que las componen, esto sugiere que debe ampliar el modelo para incluir un $x_2^2$ plazo. Tendría la forma
$$E[Y] = \beta_0 + \left(\beta_2 x_2 + \beta_5 x_2^2\right) + \beta_4 x_4 + x_4\left(\beta_1 x_2 + \beta_3 x_2^2\right).$$
Se trata de un modelo que implica (a) $x_4$ y (b) la más simple posible spline cuadrático de $x_2.$ Estos modelos son habituales: los términos cuadráticos permiten cierta respuesta no lineal en $x_2$ y la interacción permite que la respuesta cambie con diferentes valores de $x_4$ de forma controlada.
Estas sencillas manipulaciones algebraicas demuestran que el modelo propuesto no tiene nada de extraño. Lo replantean en términos de conceptos estándar y bien entendidos.
Queda la cuestión de la colinealidad. Que la colinealidad puede ser un problema lo demuestra el caso en que ambos $x_1$ y $x_2$ son variables binarias codificadas como $\pm 1.$ En este caso, $x_1/x_2$ y $x_1x_2$ son siempre igual (no sólo colineales).
Por otra parte, que la colinealidad podría no ser un gran problema puede demostrarse exhibiendo algunos datos de muestra con relativamente poca colinealidad. Nos gustaría $x_2$ sea ortogonal a $x_2^2,$ por supuesto, y entonces todo irá bien siempre que las interacciones no introduzcan colinealidad. Desgraciadamente, $x_4$ y $x_4x_2^2$ es probable que estén correlacionadas positivamente. Pero, ¿en qué medida?
Considere los datos $x_2 = (-1,0,1,\, -1,0,1,\, -1,0,1)$ y $x_4 = (-1,\sqrt{3},-1,\,0,0,0,\,1,-\sqrt{3},1).$ La matriz de covarianza de las columnas $(x_2, x_2^2, x_4x_2, x_4, x_4x_2^2)$ es
$$\pmatrix{3&0&0&0&0 \\ 0 & 1 & 0&0&0 \\ 0&0&2&0&0 \\ 0&0&0&5&2 \\ 0&0&0&2&2}/4.$$
Es casi ortogonal, con correlación sólo entre las dos últimas variables (como era de esperar). (Obsérvese que la introducción de $x_2^2$ no ha cambiado nada, porque esta variable es ortogonal a todas las demás). La relación entre el mayor y el menor valor propio (su número de condición) es $6.$ No es bonito, pero tampoco está mal. Se podrían obtener fácilmente estimaciones fiables de los coeficientes con tales variables explicativas.
Si no puede permitirse el lujo de elegir los valores de $x_2$ y $x_4$ para organizar tal casi ortogonalidad, entonces simplemente tendrá que proceder como cualquiera haría siempre en tales casos: investigar los datos que tiene y tratar cualquier colinealidad de las formas habituales (que incluirían ignorarla; eliminar variables basándose en consideraciones científicas; seleccionar algunos componentes principales; utilizar un Lasso; etc.).