Supongamos que observo una muestra $(y_i,x_i)$ , $i=1,...,n$ . Supongamos que sé lo siguiente:
$y_i= \alpha_0 + \alpha_1x_i + \varepsilon_i $ , $i \in J \subset\ {1,...,n\}$
$y_i= \beta_0 + \beta_1x_i + \varepsilon_i $ , $i \in J^c$
donde $ \varepsilon_i $ ¿son la I.I.D. y la $J$ no se conoce de antemano. ¿Es posible estimar $ \alpha_0 , \alpha_1 , \beta_0 , \beta_1 $ ? O al menos probar la hipótesis de que $J= \varnothing $ ?
Si $J$ se sabe que el problema es muy fácil de resolver. No es factible revisar todos los subconjuntos, ya que tenemos $2^n$ posibles combinaciones. Si asumimos $J=\{1,...,k\}$ con desconocidos $k=1,...,n$ es el clásico problema del punto de cambio, para el cual hay muchas pruebas disponibles. Sospecho que este problema puede estar mal planteado, así que quería comprobarlo antes de intentar resolverlo.
Aquí hay una simple ilustración del problema:
N <- 200
s1 <- sample(1:N,N %/% 2)
s2 <- (1:N)[!(1:N) %in% s1]
x <- rnorm(N)
eps <- rnorm(N)
ind <- 1:N
y <- rep(NA,N*T)
y[ind %in% s1] <- 2+0.5*x[ind %in% s1]+eps[ind %in% s1]/5
y[ind %in% s2] <- 1+1*x[ind %in% s2]+eps[ind %in% s2]/5
y
sal1 <- ind %in% s1
plot(x, y)
points(x[sal1], y[sal1], col=2)
abline(2, 0.5, col=2)
abline(1, 1)
Gráficamente es más o menos obvio que tenemos dos modelos diferentes. Tal vez sea posible utilizar alguna clasificación o técnicas de minería de datos para resolver este problema.