12 votos

Probabilidades condicionales: ¿son exclusivas del bayesianismo?

Me pregunto si las probabilidades condicionales son exclusivas del bayesianismo, o si son más bien un concepto general que comparten varias escuelas de pensamiento entre los estadísticos/probabilistas.

En cierto modo asumo que lo es, porque asumo que nadie puede $p(A,B) = p(A|B)p(B)$ es algo lógico, por lo que creo que los frecuentistas estarían al menos teóricamente de acuerdo, mientras que advierten contra la inferencia bayesiana más por razones prácticas, y no por las probabilidades condicionales.

1 votos

"Bayesiano" y "frecuentista" describen diferentes enfoques para resolver problemas, no diferentes teorías subyacentes. Me llevó un tiempo entender esto. He aquí un ejemplo .

6 votos

Yo añadiría que podría decirse que todas las probabilidades de cualquier tipo son condicionales; es sólo un caso de si las condiciones son explícitas, notativamente o conceptualmente.

0 votos

¿No se trata simplemente de que los elementos de un espacio muestral de sucesos sean mutuamente excluyentes y disjuntos (independientes) o bien conjuntos (dependientes)? ¿No se deriva la probabilidad condicional de esta última? Por tanto, el bayesianismo no es más que el caso especial de la aplicación de conocimiento a priori para derivar la solución de un problema.

21voto

Dipstick Puntos 4869

Al igual que con toda la teoría de la probabilidad La probabilidad condicional no tiene nada que ver con la estadística bayesiana frente a la frecuentista. Incluso el teorema de Bayes no es "bayesiano", sino que es un teorema general sobre la probabilidad, por ejemplo, puede utilizarse para probabilidades correctas para el tipo básico , sin ningún tipo de antecedentes, o interpretación subjetiva bayesiana de la probabilidad .

Si preguntas "¿cuál es la probabilidad de conseguir el puesto de ingeniero de bases de datos dado que eres una mujer?", o "¿cuál es la probabilidad de que tengas el VIH dado que la prueba de Western blot fue positiva?", entonces preguntas sobre probabilidades condicionales. La regresión logística modela la probabilidad condicional, etc.

Ver también ¿Existe alguna base *matemática* para el debate entre bayesianos y frecuentistas? y Interpretaciones bayesianas y frecuentistas de la probabilidad

2 votos

¿Podríamos utilizar un ejemplo menos conflictivo? "La probabilidad de toparse con un ingeniero que mida menos de 1,70", por ejemplo.

3 votos

@JFA No veo ningún problema con el ejemplo, al menos da que pensar si el condicionamiento tiene sentido aquí.

10voto

Mark White Puntos 569

Los métodos frecuentistas también utilizan probabilidades condicionales. Un valor p es una probabilidad condicional. El único problema es que no es una probabilidad muy útil o probabilidad condicional intuitiva. Si calculamos un coeficiente de correlación y nuestra máquina escupe "p = .03", lo que realmente está diciendo es:

$p(D^*|H_0) = .03$

Donde $D^*$ se refiere a los datos observados o a los datos más extremos (es decir, los datos que producen el resultado observado o un resultado más fuerte en la misma dirección) y $H_0$ es la hipótesis nula (y todos los supuestos que la acompañan).

Condicionada a la hipótesis nula, la probabilidad de que observemos nuestros datos o datos más extremos es de 0,03. Esa es una probabilidad condicional completamente ausente del teorema de Bayes. Simplemente, en mi opinión, no suele ser tan útil (a no ser que realmente se quiera llegar a esta probabilidad por algún motivo).

7 votos

Creo que "no es intuitivo" es una crítica justa, pero "no es útil" está un poco lejos. Las críticas a los valores p están muy bien, pero los científicos cuidadosos pueden darles un buen uso.

3 votos

@MatthewDrury es justo; fui demasiado fuerte con mi lenguaje. Tengo un historial de publicaciones lleno de inferencias hechas a partir de valores p, así que supongo que tengo que estar de acuerdo. Sin embargo, se podría argumentar que la inferencia del valor p sólo es útil en la medida en que se aproxima a la cobertura posterior bayesiana de cero, no en la inferencia per se.

4 votos

Sí, estoy de acuerdo en que hay un argumento razonable que se puede hacer allí. Sólo quiero que seamos cuidadosos con nuestra displicencia en las respuestas, es importante matizar.

7voto

Lev Puntos 2212

Para amontonar las demás respuestas, perfectamente adecuadas, abundan los ejemplos de modelos de probabilidad condicional en los modelos lineales y lineales generalizados, ya que la definición de dichos modelos es condicional a los regresores o covariables: $$Y|X \sim f(y;g(X^\text{T}\beta),\sigma)$$

Y la noción de distribuciones de probabilidad condicional se define en la teoría de la medida sin referencia a la estadística y menos aún al "bayesianismo". Por ejemplo, Rényi construyó una teoría de la probabilidad a partir de versiones condicionales. Obsérvese también que en la teoría formal de la medida, el condicionamiento es con respecto a un $\sigma$ -campo $\mathfrak{S}$ en lugar de a un evento. El expectativa condicional $\mathbb{E}[X|\mathfrak{S}]$ es entonces un $\mathfrak{S}$ -función medible tal que $$\mathbb{E}^{\mathfrak{S}}\{[X-\mathbb{E}[X|\mathfrak{S}]Z\}=0$$ para todos $\mathfrak{S}$ funciones medibles $Z$ . (Como ilustra el concepto de martingalas .)

4voto

Indio Puntos 1

No creo que sea justo decir que las probabilidades condicionales son exclusivas del bayesianismo.

(Expertos en teoría de las medidas, no duden en corregirme).

Una forma de ver una probabilidad condicional -sobre todo cuando hay resultados igualmente probables- es basar el cálculo de la probabilidad en un subconjunto $\Omega^{\prime} \subset \Omega$ , donde $\Omega$ es el espacio muestral.

Por ejemplo, consideremos unos datos ficticios recogidos (N.B.: no tenemos información "previa") en una encuesta:

$$ \begin{array}{|l|c|c|} \hline & \text{Male} & \text{Female} \\ \hline \text{Owns a TV} & 75 & 72 \\ \text{Does not own a TV} & 25 & 28 \\ \hline \end{array}$$ Supongamos que la probabilidad de elegir a cualquiera de las personas encuestadas anteriormente es igual de probable. Consideremos el espacio muestral $\Omega$ de todas las personas encuestadas y que $\mathbb{P} : \mathcal{A} \to [0, 1]$ , donde $\mathcal{A}$ es un no-vacío $\sigma$ -de subconjuntos de $\Omega$ .

Por definición de un evento igualmente probable, para cualquier evento $A \in \mathcal{A}$ , $$\mathbb{P}(A) = \dfrac{|A|}{|\Omega|}$$ donde $|\cdot|$ denota la cardinalidad del conjunto.

Si estuviéramos interesados, por ejemplo, en la probabilidad de poseer un televisor dado que se es mujer, dejando que $A$ ser el evento de ser una mujer y $B$ siendo el caso de poseer un televisor, calcularíamos la probabilidad como $$\dfrac{|A \cap B|}{|A|}$$ y estamos tratando $A$ como nuestro nuevo espacio muestral $\Omega^{\prime} = A$ . Pero fíjate que podemos escribir $$\dfrac{|A \cap B|}{|A|} = \dfrac{|A \cap B|/|\Omega|}{|A|/|\Omega|} = \dfrac{\mathbb{P}(A \cap B)}{\mathbb{P}(A)} $$ Esta es precisamente la definición de probabilidad condicional, y no utiliza el teorema de Bayes. Lo único que hacemos es restringir nuestro espacio muestral.

2voto

RNZ Puntos 11

Llego un poco tarde a esta fiesta en particular, pero pensé en añadir una respuesta más filosófica a las otras excelentes respuestas aquí, en caso de que pueda ser útil para futuros buscadores.

Si eres un frecuentista hipotético, entonces la definición de probabilidad condicional se desprende de la ley límite de la división. Explícitamente, dejemos que $f_N (A \land E)$ sea el número de veces que $A\land E$ es cierto en $N$ juicios y dejar que $f_N (E)$ sea el número de veces que $E$ es cierto en $N$ ensayos. Definimos $$ p(A\land E) := \lim_{N\to \infty} \frac{f_N (A\land E)}{N} $$ y $$ p (E) := \lim_{N\to \infty} \frac{f_N (E)}{ N} $$ Por último, dejemos que $p(A | E )$ sea la fracción de veces que $E$ es cierto que $A$ también es cierto, en el límite infinito: $$ p (A | E) := \lim_{N\to \infty} \frac{f_N (A\land E)}{f_N (E)} $$ Suponiendo que $p(E)$ es distinto de cero, tenemos $$ p (A | E) = \lim_{N\to \infty} \frac{f_N (A\land E)/ N}{f_N (E)/N} = \frac{\lim_{N\to \infty} f_N (A\land E) / N}{\lim_{N\to \infty} f_N (E)/ N } = \frac{p(A\land E)}{p(E)}. $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X