32 votos

¿Qué significa "observaciones independientes"?

Estoy tratando de entender lo que el suposición de observaciones independientes medios. Algunas definiciones son:

  1. "Dos acontecimientos son independientes si y sólo si $P(a \cap b) = P(a) * P(b)$ ." ( Diccionario de términos estadísticos )
  2. "la ocurrencia de un evento no cambia la probabilidad de otro" ( Wikipedia ).
  3. "el muestreo de una observación no afecta a la elección de la segunda observación" ( David M. Lane ).

Un ejemplo de observaciones dependientes que se da a menudo es el de los estudiantes anidados dentro de los profesores, como se indica a continuación. Supongamos que los profesores influyen en los alumnos, pero los alumnos no se influyen entre sí.

Entonces, ¿cómo se violan estas definiciones para estos datos? El muestreo de [grado = 7] para [alumno = 1] no afecta a la distribución de probabilidad del grado que se muestreará a continuación. (¿O sí? Y si es así, ¿qué predice la observación 1 con respecto a la siguiente observación?)

¿Por qué las observaciones serían independientes si hubiera medido gender en lugar de teacher_id ? ¿No afectan a las observaciones de la misma manera?

teacher_id   student_id   grade
         1            1       7
         1            2       7
         1            3       6
         2            4       8
         2            5       8
         2            6       9

14voto

Aaron Puntos 36

En la teoría de la probabilidad, independencia estadística (que no es lo mismo que la independencia causal) se define como su propiedad (3), pero (1) se sigue como consecuencia $\dagger$ . Los eventos $\mathcal{A}$ y $\mathcal{B}$ se dice que son estadísticamente independientes si y sólo si:

$$\mathbb{P}(\mathcal{A} \cap \mathcal{B}) = \mathbb{P}(\mathcal{A}) \cdot \mathbb{P}(\mathcal{B}) .$$

Si $\mathbb{P}(\mathcal{B}) > 0$ entonces si se deduce que:

$$\mathbb{P}(\mathcal{A} |\mathcal{B}) = \frac{\mathbb{P}(\mathcal{A} \cap \mathcal{B})}{\mathbb{P}(\mathcal{B})} = \frac{\mathbb{P}(\mathcal{A}) \cdot \mathbb{P}(\mathcal{B})}{\mathbb{P}(\mathcal{B})} = \mathbb{P}(\mathcal{A}) .$$

Esto significa que la independencia estadística implica que la ocurrencia de un evento no afecta a la probabilidad del otro. Otra forma de decir esto es que la ocurrencia de un evento no debe cambiar sus creencias sobre el otro. El concepto de independencia estadística suele extenderse de los sucesos a las variables aleatorias de forma que permite hacer afirmaciones análogas para las variables aleatorias, incluidas las variables aleatorias continuas (que tienen una probabilidad nula de cualquier resultado concreto). El tratamiento de la independencia para las variables aleatorias implica básicamente las mismas definiciones aplicadas a las funciones de distribución.


Es fundamental comprender que la independencia es una propiedad muy fuerte - si los eventos son estadísticamente independientes, entonces (por definición) no podemos aprender sobre uno de ellos observando el otro. Por este motivo, los modelos estadísticos suelen incluir supuestos de condicional independencia, dada alguna distribución o parámetros subyacentes. El marco conceptual exacto depende de si se utilizan métodos bayesianos o métodos clásicos. Los primeros implican una dependencia explícita entre los valores observables, mientras que los segundos implican una forma de dependencia implícita (complicada y sutil). Para entender bien esta cuestión es necesario comprender un poco la estadística clásica frente a la bayesiana.

Los modelos estadísticos suelen decir que utilizan la suposición de que las secuencias de variables aleatorias son "independientes e idénticamente distribuidas (IID)". Por ejemplo, se puede tener una secuencia observable $X_1, X_2, X_3, ... \sim \text{IID N} (\mu, \sigma^2)$ lo que significa que cada variable aleatoria observable $X_i$ se distribuye normalmente con la media $\mu$ y la desviación estándar $\sigma$ . Cada una de las variables aleatorias de la secuencia es "independiente" de las demás en el sentido de que su resultado no cambia la distribución establecida de los demás valores. En este tipo de modelo, utilizamos los valores observados de la secuencia para estimar los parámetros del modelo y, a continuación, podemos predecir los valores no observados de la secuencia. Esto implica necesariamente utilizar algunos valores observados para aprender sobre otros.

Estadística bayesiana: Todo es conceptualmente sencillo. Supongamos que $X_1, X_2, X_3, ... $ son condicionalmente IID dados los parámetros $\mu$ y $\sigma$ y tratar esos parámetros desconocidos como variables aleatorias. Dada cualquier distribución previa no degenerada para estos parámetros, los valores de la secuencia observable son (incondicionalmente) dependientes, generalmente con correlación positiva. Por lo tanto, tiene mucho sentido que utilicemos los resultados observados para predecir resultados posteriores no observados: son condicionalmente independientes, pero incondicionalmente dependientes.

Estadística clásica: Esto es bastante complicado y sutil. Supongamos que $X_1, X_2, X_3, ... $ son IID dados los parámetros $\mu$ y $\sigma$ , pero trata esos parámetros como "constantes desconocidas". Dado que los parámetros se tratan como constantes, no hay una diferencia clara entre la independencia condicional y la incondicional en este caso. No obstante, seguimos utilizando los valores observados para estimar los parámetros y hacer predicciones de los valores no observados. Por lo tanto, utilizamos los resultados observados para predecir los resultados posteriores no observados aunque sean teóricamente "independientes" entre sí. Esta aparente incongruencia se analiza en detalle en O'Neill, B. (2009) Intercambiabilidad, correlación y efecto Bayes. Revista Internacional de Estadística 77(2) , pp. 241 - 250 .


Aplicando esto a los datos de las calificaciones de los estudiantes, probablemente se modelaría algo así suponiendo que grade es independiente de forma condicional dado teacher_id . Utilizaría los datos para hacer inferencias sobre la distribución de las calificaciones de cada profesor (que no se supondría igual) y esto le permitiría hacer predicciones sobre la incógnita grade de otro estudiante. Debido a que el grade se utiliza en la inferencia, afectará a sus predicciones de cualquier variable desconocida grade variable para otro estudiante. Sustitución de teacher_id con gender no cambia esto; en cualquier caso tienes una variable que podrías usar como predictor de grade .

Si utiliza el método bayesiano, tendrá una suposición explícita de independencia condicional y una distribución a priori para las distribuciones de las calificaciones de los profesores, y esto conduce a una hipótesis incondicional (predictiva) dependencia de las calificaciones, lo que le permite utilizar racionalmente una calificación en su predicción de otra. Si utiliza la estadística clásica, tendrá un supuesto de independencia (basado en parámetros que son "constantes desconocidas") y utilizará los métodos clásicos de predicción estadística que le permiten utilizar una calificación para predecir otra.


$\dagger$ Hay algunas presentaciones fundacionales de la teoría de la probabilidad que definen la independencia mediante el enunciado de la probabilidad condicional y luego dan el enunciado de la probabilidad conjunta como consecuencia. Esto es menos común.

4voto

sundar nataraj Puntos 132

Las definiciones de independencia estadística que das en tu post son todas esencialmente correctas, pero no llegan al corazón de la independencia supuesto en un modelo estadístico . Para entender lo que queremos decir con la suposición de observaciones independientes en un modelo estadístico, será útil revisar lo que es un modelo estadístico a nivel conceptual.

Los modelos estadísticos como aproximaciones a los "dados de la naturaleza"

Utilicemos un ejemplo conocido: recogemos una muestra aleatoria de seres humanos adultos (de una población bien definida, por ejemplo, todos los seres humanos adultos de la Tierra) y medimos su estatura. Queremos estimar la altura media de la población de humanos adultos. Para ello, construimos un modelo estadístico sencillo asumiendo que las alturas de las personas surgen de una distribución normal.

Nuestro modelo será bueno si una distribución normal proporciona una buena aproximación a cómo la naturaleza "elige" las alturas de las personas. Es decir, si simulamos los datos con nuestro modelo normal, ¿el conjunto de datos resultante se parece mucho (en sentido estadístico) a lo que observamos en la naturaleza? En el contexto de nuestro modelo, ¿proporciona nuestro generador de números aleatorios una buena simulación del complicado proceso estocástico que utiliza la naturaleza para determinar la altura de los adultos humanos seleccionados al azar ("los dados de la naturaleza")?

La hipótesis de independencia en un contexto de modelización simple

Cuando asumimos que podíamos aproximarnos a los "dados de la naturaleza" extrayendo números aleatorios de una distribución normal, no queríamos decir que extraeríamos un único número de la distribución normal y luego asignaríamos esa altura a todo el mundo. Nos referimos a que extraeríamos de forma independiente números para todo el mundo a partir de la misma distribución normal. Este es nuestro supuesto de independencia.

Imaginemos ahora que nuestra muestra de adultos no fuera una muestra aleatoria, sino que procediera de un puñado de familias. La estatura se da en algunas familias y la baja en otras. Ya hemos dicho que estamos dispuestos a asumir que las alturas de todos los adultos provienen de una distribución normal. Pero el muestreo de la distribución normal no proporcionaría un conjunto de datos que se pareciera mucho a nuestra muestra (nuestra muestra mostraría "grupos" de puntos, algunos bajos y otros altos; cada grupo es una familia). Las alturas de las personas de nuestra muestra no son independiente se extrae de la distribución normal general.

La hipótesis de independencia en un contexto de modelización más complicado

¡Pero no todo está perdido! Podríamos escribir un modelo mejor para nuestra muestra, uno que conserve la independencia de las alturas. Por ejemplo, podríamos escribir un modelo lineal en el que las alturas surjan de una distribución normal con una media que dependa de la familia a la que pertenezca el sujeto. En este contexto, la distribución normal describe la variación residual Después de tener en cuenta la influencia de la familia. Y las muestras independientes de una distribución normal podrían ser un buen modelo para esta variación residual.

En general, lo que hemos hecho es escribir un modelo más sofisticado de cómo esperamos que se comporten los dados de la naturaleza en el contexto de nuestro estudio. Al redactar un buen modelo, todavía podemos estar justificados al suponer que la parte aleatoria del modelo (es decir, la variación aleatoria en torno a las medias familiares) se muestrea de forma independiente para cada miembro de la población.

La hipótesis de independencia (condicional) en un contexto de modelización general

En general, los modelos estadísticos funcionan asumiendo que los datos surgen de alguna distribución de probabilidad. Los parámetros de esa distribución (como la media de la distribución normal en el ejemplo anterior) pueden depender de covariables (como la familia en el ejemplo anterior). Pero, por supuesto, son posibles infinitas variaciones. La distribución podría no ser normal, el parámetro que depende de las covariables podría no ser la media, la forma de la dependencia podría no ser lineal, etc. TODOS estos modelos se basan en la suposición de que proporcionan una aproximación razonablemente buena a cómo se comportan los dados de la naturaleza (de nuevo, que los datos simulados bajo el modelo serán estadísticamente similares a los datos reales obtenidos por la naturaleza).

Cuando simulamos los datos según el modelo, el paso final será siempre extraer un número aleatorio según alguna distribución de probabilidad modelada. Estos son los sorteos que suponemos que son independientes entre sí. Los datos reales que obtenemos pueden no parecer independientes, porque las covariables u otras características del modelo pueden indicarnos que utilicemos diferentes distribuciones de probabilidad para diferentes extracciones (o conjuntos de extracciones). Pero toda esta información debe estar integrada en el propio modelo. No podemos dejar que la extracción de números finales al azar dependa de los valores que hayamos extraído para otros puntos de datos. Por lo tanto, los eventos que deben ser independientes son las tiradas de los "dados de la naturaleza" en el contexto de nuestro modelo.

Es útil referirse a esta situación como independencia condicional lo que significa que los puntos de datos son independientes entre sí dado (es decir, condicionado a) las covariables. En nuestro ejemplo de la altura, suponemos mi altura y la de mi hermano condicionado a mi familia son independientes entre sí, y también son independientes de tu altura y de la altura de tu hermana condicionado a su familia . Una vez que conocemos la familia de alguien, sabemos de qué distribución normal extraer para simular su estatura, y las extracciones de los distintos individuos son independientes independientemente de su familia (aunque nuestra elección de la distribución normal de la que extraer depende de la familia). También es posible que incluso después de tratar la estructura familiar de nuestros datos, todavía no consigamos una buena independencia condicional (tal vez también sea importante modelar el género, por ejemplo).

En última instancia, si tiene sentido asumir condicional La independencia de las observaciones es una decisión que debe tomarse en el contexto de un modelo concreto. Por eso, por ejemplo, en la regresión lineal, no comprobamos que los datos proceden de una distribución normal, pero sí que los RESIDUALES proceden de una distribución normal (y de la MISMA distribución normal en todo el rango de los datos). La regresión lineal asume que, después de tener en cuenta la influencia de las covariables (la línea de regresión), los datos se muestrean de forma independiente a partir de una distribución normal, de acuerdo con la definición estricta de independencia en el post original.

En el contexto de su ejemplo

"Profesor" en sus datos podría ser como "familia" en el ejemplo de la altura.

Una última vuelta de tuerca

Muchos modelos conocidos suponen que los residuos provienen de una distribución normal. Imagina que te doy unos datos que claramente NO son normales. Tal vez estén fuertemente sesgados, o tal vez sean bimodales. Y te dijera "estos datos provienen de una distribución normal".

"De ninguna manera", dices, "¡Es obvio que esos no son normales!"

"¿Quién ha dicho que los datos sean normales?" Yo digo. "Sólo he dicho que proceden de una distribución normal".

"¡Una misma cosa!", dices. "¡Sabemos que un histograma de una muestra razonablemente grande de una distribución normal tenderá a parecer aproximadamente normal!"

"Pero", digo, "nunca dije que los datos fueran muestreo independiente de la distribución normal. Las DO provienen de una distribución normal, pero no son extracciones independientes".

El supuesto de independencia (condicional) en la modelización estadística está ahí para evitar que los listillos como yo ignoren la distribución de los residuos y apliquen mal el modelo.

Dos notas finales

1) El término "dados de la naturaleza" no es mío originalmente, pero a pesar de consultar un par de referencias no consigo averiguar de dónde lo saqué en este contexto.

2) Algunos modelos estadísticos (por ejemplo, los modelos autorregresivos) no exigen la independencia de las observaciones de esta manera. En concreto, permiten que la distribución muestral de una determinada observación dependa no sólo de las covariables fijas, sino también de los datos anteriores.

4voto

Jeff Bauer Puntos 236

Dejemos que $\mathbb x=(X_1,...,X_j,...,X_k)$ por un $k-$ vector aleatorio dimensional, es decir, una colección de variables aleatorias de posición fija (funciones reales medibles).

Consideremos muchos vectores de este tipo, por ejemplo $n$ e indexar estos vectores por $i=1,...,n$ Así que, digamos

$$\mathbb x_i=(X_{1i},...,X_{ji},...,X_{ki})$$ y considerarlos como una colección llamada "la muestra", $S=(\mathbb x_1,...,\mathbb x_i,...,\mathbb x_n)$ . Entonces llamamos a cada $k-$ vector dimensional una "observación" (aunque realmente sólo se convierte en una una vez que medimos y registramos las realizaciones de las variables aleatorias implicadas).

Tratemos primero el caso en el que existe una función de masa de probabilidad (PMF) o una función de densidad de probabilidad (PDF), y también, funciones conjuntas de este tipo. Denotemos por $f_i(\mathbb x_i),\;i=1,...,n$ la PMF conjunta o la PDF conjunta de cada vector aleatorio, y $f(\mathbb x_1,...,\mathbb x_i,...,\mathbb x_n)$ la PMF conjunta o la PDF conjunta de todos estos vectores.

Entonces, la muestra $S$ se llama "muestra independiente", si se cumple la siguiente igualdad matemática:

$$f(\mathbb x_1,...,\mathbb x_i,...,\mathbb x_n) = \prod_{i=1}^{n}f_i(\mathbb x_i),\;\;\; \forall (\mathbb x_1,...,\mathbb x_i,...,\mathbb x_n) \in D_S$$

donde $D_S$ es el dominio conjunto creado por el $n$ vectores/observaciones aleatorias.

Esto significa que las "observaciones" son "conjuntamente independientes", (en el sentido estadístico, o "independientes en probabilidad", como se decía antiguamente y se sigue viendo hoy en día a veces). La costumbre es llamarlos simplemente "observaciones independientes".

Obsérvese que la propiedad de independencia estadística aquí es sobre el índice $i$ es decir, entre las observaciones. No tiene relación con lo que son las relaciones probabilísticas/estadísticas entre las variables aleatorias en cada observación (en el caso general que tratamos aquí donde cada observación es multidimensional).

Obsérvese también que en los casos en que tenemos variables aleatorias continuas sin densidades, lo anterior puede expresarse en términos de las funciones de distribución.

Esto es lo que las "observaciones independientes" significa . Es una propiedad definida con precisión y expresada en términos matemáticos. Veamos algo de lo que implica .

ALGUNAS CONSECUENCIAS DE TENER OBSERVACIONES INDEPENDIENTES

A. Si dos observaciones forman parte de un grupo de observaciones conjuntamente independientes, entonces también son "independientes por pares" (estadísticamente),

$$f(\mathbb x_i,\mathbb x_m) = f_i(\mathbb x_i)f_m(\mathbb x_m)\;\;\; \forall i\neq m, \;\;\; i,m =1,...,n$$

Esto implica, a su vez, que los PMFs/PDFs condicionales son iguales a los "marginales"

$$f(\mathbb x_i \mid \mathbb x_m) = f_i(\mathbb x_i)\;\;\; \forall i\neq m, \;\;\; i,m =1,...,n$$

Esto se generaliza a muchos argumentos, condicionados o condicionantes, digamos

$$f(\mathbb x_i , \mathbb x_{\ell}\mid \mathbb x_m) = f(\mathbb x_i , \mathbb x_{\ell}),\;\;\;\; f(\mathbb x_i \mid \mathbb x_m, \mathbb x_{\ell}) = f_i(\mathbb x_i)$$

etc., siempre que los índices de la izquierda sean diferentes a los de la derecha de la línea vertical.

Esto implica que si observamos realmente una observación, las probabilidades que caracterizan a cualquier otra observación de la muestra no cambian. Por lo tanto, en lo que respecta a predicción una muestra independiente no es nuestro mejor amigo. Preferiríamos tener dependencia para que cada observación nos ayude a decir algo más sobre cualquier otra observación.

B. Por otro lado, una muestra independiente tiene un contenido informativo máximo. Cada observación, al ser independiente, conlleva una información que no puede deducirse, total o parcialmente, de ninguna otra observación de la muestra. Por lo tanto, la suma total es máxima, en comparación con cualquier muestra comparable en la que exista cierta dependencia estadística entre algunas de las observaciones. Pero ¿de qué sirve esta información si no puede ayudarnos a mejorar nuestras predicciones?

Se trata de información indirecta sobre las probabilidades que caracterizan a las variables aleatorias de la muestra. Cuanto más características comunes tengan estas observaciones (distribución de probabilidad común en nuestro caso), mejor podremos descubrirlas, si nuestra muestra es independiente.

En otras palabras, si la muestra es independiente y "idénticamente distribuido", lo que significa

$$f_i(\mathbb x_i) = f_m(\mathbb x_m) = f(\mathbb x),\;\;\; i\neq m$$

es la mejor muestra posible para obtener información no sólo sobre la distribución de probabilidad conjunta común $f(\mathbb x)$ sino también para las distribuciones marginales de las variables aleatorias que componen cada observación, digamos $f_j(x_{ji})$ .

Así que aunque $f(\mathbb x_i \mid \mathbb x_m) = f_i(\mathbb x_i)$ por lo que el poder de predicción adicional en cuanto a la realización real de $\mathbb x_i$ con una muestra independiente e idénticamente distribuida, estamos en la mejor posición para descubrir las funciones $f_i$ (o algunas de sus propiedades), es decir, las distribuciones marginales.

Por lo tanto, en lo que respecta a estimación (que a veces se utiliza como término global, pero que aquí debe diferenciarse del concepto de predicción ), una muestra independiente es nuestro "mejor amigo", si se combina con la propiedad "idénticamente distribuida".

C. También se deduce que una muestra independiente de observaciones en la que cada una se caracteriza por una distribución de probabilidad totalmente diferente, sin ninguna característica común, es tan poco valiosa como una colección de información como se puede conseguir (por supuesto, cada pieza de información por sí misma es digna, la cuestión aquí es que tomadas en conjunto no pueden ser combinadas para ofrecer algo útil). Imagínese una muestra que contenga tres observaciones: una que contenga las características (cuantitativas) de las frutas de Sudamérica, otra que contenga las montañas de Europa y una tercera que contenga la ropa de Asia. Son piezas de información bastante interesantes las tres, pero juntas como muestra no pueden hacer nada estadísticamente útil para nosotros.

Dicho de otro modo, una condición necesaria y suficiente para que una muestra independiente sea útil es que las observaciones tengan algunas características estadísticas en común. Por eso, en Estadística, la palabra "muestra" no es sinónimo de "recogida de información" en general, sino de "recogida de información sobre entidades que tienen algunas características comunes".

APLICACIÓN A LOS DATOS DE LA OPERACIÓN EJEMPLO

Respondiendo a una petición del usuario @gung, examinemos el ejemplo del OP a la luz de lo anterior. Suponemos razonablemente que estamos en una escuela con más de dos profesores y más de seis alumnos. Así que a) estamos muestreando tanto a los alumnos como a los profesores, y b) incluimos en nuestro conjunto de datos el grado que corresponde a cada combinación profesor-alumno.

En concreto, las calificaciones son no "muestreados", son una consecuencia del muestreo que hicimos de profesores y alumnos. Por lo tanto, es razonable tratar la variable aleatoria $G$ (=grado) como "variable dependiente", mientras que los alumnos ( $P$ ) y los profesores $T$ son "variables explicativas" (no todo posibles variables explicativas, sólo algunos ). Nuestra muestra consta de seis observaciones que escribimos explícitamente, $S = (\mathbb s_1, ..., \mathbb s_6)$ como

\begin{align} \mathbb s_1 =(T_1, P_1, G_1) \\ \mathbb s_2 =(T_1, P_2, G_2) \\ \mathbb s_3 =(T_1, P_3, G_3) \\ \mathbb s_3 =(T_2, P_4, G_4) \\ \mathbb s_4 =(T_2, P_5, G_5) \\ \mathbb s_5 =(T_2, P_6, G_6) \\ \end{align}

Bajo el supuesto declarado de que "los alumnos no se influyen mutuamente", podemos considerar el $P_i$ variables como distribuidas de forma independiente. Bajo el supuesto no declarado de que "todos los demás factores" que pueden influir en el Grado son independientes entre sí, también podemos considerar el $G_i$ las variables sean independientes unas de otras.
Finalmente, bajo el supuesto no establecido de que los profesores no se influyen entre sí, podemos considerar las variables $T_1, T_2$ como estadísticamente independientes entre sí.

Pero independientemente de de qué suposición causal/estructural haremos respecto a la relación entre profesores y alumnos El hecho es que las observaciones $\mathbb s_1, \mathbb s_2, \mathbb s_3$ contienen la misma variable aleatoria ( $T_1$ ), mientras que las observaciones $\mathbb s_4, \mathbb s_5, \mathbb s_6$ también contiene la misma variable aleatoria ( $T_2$ ).

Nótese cuidadosamente la distinción entre "la misma variable aleatoria" y "dos variables aleatorias distintas que tienen distribuciones idénticas".

Por lo tanto, incluso si asumimos que "los profesores NO influyen en los alumnos", nuestra muestra, tal y como se ha definido anteriormente, no es una muestra independiente, porque $\mathbb s_1, \mathbb s_2, \mathbb s_3$ son estadísticamente dependientes a través de $T_1$ , mientras que $\mathbb s_4, \mathbb s_5, \mathbb s_6$ son estadísticamente dependientes a través de $T_2$ .

Supongamos ahora que excluir la variable aleatoria "profesor" de nuestra muestra. Es la muestra (Alumno, Grado) de seis observaciones, una muestra independiente? En este caso, las suposiciones que haremos sobre cuál es la relación estructural entre profesores, alumnos y calificaciones sí importan.

En primer lugar, ¿los profesores directamente afectar a la variable aleatoria "Calificación", a través, quizás, de diferentes "actitudes/estilos de calificación"? Por ejemplo $T_1$ puede ser una "calificación dura" mientras que $T_2$ puede que no. En tal caso "no ver" la variable "Profesor" no hace que la muestra sea independiente, porque ahora es la $G_1, G_2, G_3$ que son dependientes, debido a una fuente de influencia común, $T_1$ (y análogamente para los otros tres).

Pero digamos que los profesores son idénticos en ese aspecto. Entonces, bajo el supuesto declarado "los profesores influyen en los alumnos", tenemos de nuevo que las tres primeras observaciones son dependientes entre sí, porque los profesores influyen en los alumnos que influyen en las calificaciones, y llegamos al mismo resultado, aunque de forma indirecta en este caso (y lo mismo para los otros tres). Así que, de nuevo, la muestra no es independiente.

EL CASO DEL GÉNERO

Ahora, hagamos la muestra de seis observaciones de (Alumno, Grado) "condicionalmente independiente con respecto al profesor" (ver otras respuestas) suponiendo que los seis alumnos tienen en realidad el mismo profesor. Pero además incluyamos en la muestra la variable aleatoria " $Ge$ =Género" que tradicionalmente toma dos valores ( $M,F$ ), mientras que recientemente ha comenzado a tomar más. Nuestra muestra de seis observaciones, una vez más tridimensional, es ahora

\begin{align} \mathbb s_1 =(Ge_1, P_1, G_1) \\ \mathbb s_2 =(Ge_2, P_2, G_2) \\ \mathbb s_3 =(Ge_3, P_3, G_3) \\ \mathbb s_3 =(Ge_4, P_4, G_4) \\ \mathbb s_4 =(Ge_5, P_5, G_5) \\ \mathbb s_5 =(Ge_6, P_6, G_6) \\ \end{align}

Obsérvese cuidadosamente que lo que incluimos en la descripción de la muestra en cuanto a Género, es no el valor real que toma para cada alumno, pero la variable aleatoria "Género" . Vuelve a mirar al principio de esta larguísima respuesta: la Muestra no se define como una colección de números (o valores fijos numéricos o no en general), sino como una colección de variables aleatorias (es decir, de funciones).

Ahora bien, ¿el género de un alumno influye (estructural o estadísticamente) en el género del otro? Podríamos argumentar razonablemente que no. Así que, desde ese punto de vista, el $Ge_i$ las variables son independientes. ¿El género del alumno $1$ , $Ge_1$ afecta de alguna otra manera directamente a algún otro alumno ( $P_2, P_3,...$ )? Hmm, hay teorías educativas que batallan, si no recuerdo mal, sobre el asunto. Así que si suponemos que sí no entonces se va otra posible fuente de dependencia entre las observaciones. Por último, ¿influye directamente el sexo de un alumno en las notas de otro? si argumentamos que no, obtenemos una muestra independiente (condicionado a que todos los alumnos tengan el mismo profesor).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X