3 votos

Combinación de datos con diferentes variables dependientes

Supongamos que tenemos dos matrices de características, $X_1$ y $X_2$ con variables de respuesta $Y_1$ y $Y_2.$ Donde $X_1$ y $X_2$ tienen las mismas columnas de características, pero observaciones distintas. Además, $Y_1$ y $Y_2$ son respuestas continuas medidas en diferentes escalas (es decir, la distribución subyacente de $Y_1$ es diferente a la distribución subyacente de $Y_2$ ). Supongamos que existe una función $f_Y$ tal que $Y_1 \approx f_Y(Y_2)$ .

¿Podemos combinar los conjuntos de datos $(X_1, Y_1)$ y $(X_2, Y_2)$ para aumentar el número de observaciones que tenemos para la regresión?

Por ejemplo, para las correspondencias $$ \begin{matrix} X_1 & \underset{(1)}{\rightarrow} & Y_1 \\ & & \downarrow\tiny(Y) \\ X_2 & \underset{(2)}{\rightarrow} & Y_2 \\ \end{matrix} $$ Se podría utilizar $\underset{(1)}{\rightarrow}$ y $\underset{(2)}{\rightarrow}$ para aprender $\downarrow\tiny(Y)$ y luego hacer una regresión con la transformación $Y_2$ valores para obtener:

$$ \left(\begin{matrix} X_1 \\ X_2 \\ \end{matrix}\right) \rightarrow \left(\begin{matrix} Y_1 \\ f_Y(Y_2) \\ \end{matrix}\right). $$

Como ejemplo de este problema en R, digamos que tenemos los datos simulados:

x1 = matrix(rnorm(500), nrow = 50)
x2 = matrix(rnorm(600), nrow = 60)
b1 = matrix(c(1,2,3, rep(0,7)), ncol = 1)
b2 = 2*(b1)^2
y1 = x1 %*% b1 + rnorm(50)
y2 = x2 %*% b2 + rnorm(60)

Podemos construir regresiones lineales simples lm(y1~x1) y lm(y2~x2) para aprender b1 y b2 pero supongamos que podemos aprender un predictor más potente si combinamos los conjuntos de datos.

¿Cómo combinamos estos datos?

0voto

La introducción a este documento de Bastani ofrece algunas buenas referencias para resolver este tipo de problemas.

El aprendizaje multitarea combina datos de múltiples tareas predictivas relacionadas para entrenar modelos predictivos similares para cada tarea. Para ello, utiliza una representación compartida entre las tareas (Caruana 1997). Dichas representaciones suelen incluir la selección de variables (es decir, aplicar el mismo soporte de características para todas las tareas en la regresión lineal o logística, Jalali et al. 2010, Meier et al. 2008), la elección del núcleo (es decir, utilizar el mismo núcleo para todas las tareas en la regresión del núcleo, Caruana 1997), o las representaciones de la red neuronal intermedia (es decir, utilizar los mismos pesos para las capas intermedias para todas las tareas en el aprendizaje profundo, Collobert y Weston 2008). El aprendizaje por transferencia se centra específicamente en el aprendizaje de una única tarea nueva mediante la transferencia de conocimientos de una tarea relacionada que ya ha sido aprendida (véase Pan et al. 2010 para un estudio).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X