Supongamos que tengo un conjunto de datos con un cierto resultado $Y$, las covariables $X$, y un cierto estado de la variable $Z$, que puede tomar un número finito (pequeño) número de valores, por ejemplo, 1, 2 y 3. Cualquiera de estas variables puede faltar en el conjunto de datos, por lo que quiero multiplicar culpa de mis datos. En la parte superior de las imputaciones de la modelo $Y|\{X,Z\}$, quiero obtener normalizado imputaciones $Y|\{X,Z=1\}$ -- es decir, la fuerza de uno de mis variables predictoras se establece en un nivel específico.
El contexto es un poco similar a la del índice de masa corporal mentirosos ejercicio en 7.3 Segundos en Stef van Buuren's FIMD libro. El estado de $Z$ corresponde a las diferentes fuentes de mediciones en $Y$, y sospecho que el estado de $Z=1$ es la más exacta, así que quiero tener una idea de lo que los resultados en $Y$ habría sido si todo el mundo se midieron utilizando la fuente de $Z=1$. La diferencia es que yo no tengo ningún medidas paralelas, como su auto-reportados y instrumentado por el IMC. Así que lo que necesito, de cómputo, de que se ejecute el burn-ins, calibrar el modelo de imputación(s), y en la última iteración de $Y$, sustituto $Z=1$ en lugar de su real o previsto de los valores. Puede ser una manera de crear una pasiva variable que es constante $=1$, pero luego se dejó caer de la imputación ecuación como colineal con el término de intersección. Si acabo de crear una copia de $Y$ y hacen falta para $Z \neq 1$, y poner $Y$ $Z$ como predictores, luego me sale una predicción perfecta con singular matrices, por lo que es un no-go.
Alguna idea de cómo que puede ser implementado utilizando razonablemente estándar de los paquetes? Me gustaría usar Stata o R para esto.