Estoy haciendo una regresión lineal con una variable dependiente transformada. La siguiente transformación se hizo para que la hipótesis de normalidad de los residuos se mantuviera. La variable dependiente sin transformar estaba sesgada negativamente, y la siguiente transformación la hizo cercana a la normalidad:
$$Y=\sqrt{50-Y_{orig}}$$
donde $Y_{orig}$ es la variable dependiente en la escala original.
Creo que tiene sentido utilizar alguna transformación en el $\beta$ para volver a la escala original. Utilizando la siguiente ecuación de regresión,
$$Y=\sqrt{50-Y_{orig}}=\alpha+\beta \cdot X$$
y fijando $X=0$ tenemos
$$\alpha=\sqrt{50-Y_{orig}}=\sqrt{50-\alpha_{orig}}$$
Y por último,
$$\alpha_{orig}=50-\alpha^2$$
Usando la misma lógica, encontré
$$\beta_{orig}=\alpha\space(\alpha-2\beta)+\beta^2+\alpha_{orig}-50$$
Ahora las cosas funcionan muy bien para un modelo con 1 o 2 predictores; los coeficientes retrotransformados se parecen a los originales, sólo que ahora puedo confiar en los errores estándar. El problema viene cuando se incluye un término de interacción, como
$$Y=\alpha+X_1\beta_{X_1}+X_2\beta_{X_2}+X_1X_2\beta_{X_1X_2}$$
A continuación, la retrotransformación para el $\beta$ s no están tan cerca de los de la escala original, y no estoy seguro de por qué ocurre eso. Tampoco estoy seguro de si la fórmula encontrada para la retrotransformación de un coeficiente beta es utilizable tal cual para la 3ª $\beta$ (para el término de interacción). Antes de entrar en el álgebra loca, pensé en pedir consejo...