4 votos

¿De la muestra o no la muestra?

Tengo el siguiente problema (quiero predecir resultados deportivos). Deje $X$ ser un discreto RV con $m$ resultados posibles, cada uno con probabilidad de $p_i$$i=1,\ldots,m$. Supongamos que tengo un gran iid de la muestra $X_1,\ldots,X_n$, donde cada variable tiene la misma distribución que $X$. Ahora, para hacer una predicción para cada una de las $X_k$ (antes de que su valor real se dibuja) yo sólo podía predecir siempre resultado $i^*$ con mayor probabilidad de $p^*_i$. Luego, en la espera, yo estaría a la derecha en $n\cdot p^*_i$ de las muestras.

Como alternativa, podría muestra de la distribución de $X$, es decir, para cada una de las $X_k$ predecir el valor de $i$ según $p_i$. Entonces, la probabilidad de que mi predicción para $X_k$ es igual a la del sorteo real de $X_k$ es

$$q=P[\hat{X}_k=X_k]=\sum_{i=1}^m P[\hat{X}_k=i]P[X_k=i]=\sum_{i=1}^m p_i^2.$$

Por lo tanto, según este enfoque, la probabilidad de que estoy en lo correcto en $r$ predicciones es $B(r;n,q)=\binom{n}{r}q^r(1-q)^{n-r}$. Ahora, ¿cuál es la probabilidad de que este enfoque da a mí, al menos, $n\cdot p_i^*$ resultados correctos (es decir, $B(n\cdot p_i^*;n,q)+\cdots+B(n;n,q)$)? ¿Se conocen los resultados generales sobre esto? ¿Cómo funciona la respuesta dependerá de la distribución de $X$ (por ejemplo, uniforme, sesgada, ...)?

En otras palabras, debo muestra (enfoque 2) o simplemente predecir los probables resultados (enfoque 1)? (Hice algún error en alguna parte?)

5voto

tsingyue Puntos 31

$\sum_{i=1}^m pi^2 \le \sum{i=1}^m pip{max} = p{max}\sum{i=1}^m pi = p{max}.$

4voto

Al. Puntos 1182

Usted puede probar que su método de muestreo no es mejor que la más fácil, elegir-el-mejor-apuesta de método. I. e. $\sum_i p_i =1,\ p_i > 0\ (\forall i) \implies \sum_i p_i^2 \leq \max_i p_i$.

Ignorando la positividad de la restricción y el uso de multiplicadores de Lagrange para maximizar la suma de los cuadrados. El Lagrangiano es $\mathcal L(p_1,\dots,p_m,\lambda):= \sum p_i^2 + \lambda(\sum p_i-1)$, por lo tanto nuestra condición necesaria es $\frac {\partial \mathcal L}{\partial p_i} = \frac {\partial \mathcal L}{\partial \lambda}=0$,

\begin{align} 0 &= \frac {\partial \mathcal L}{\partial p_i} \\ &= 2p_i+\lambda \\ \implies p_i &= -\frac \lambda 2 \\\\ 0 &= \frac {\partial \mathcal L}{\partial \lambda} \\ &= \sum p_i-1 \\ &= m(-\frac\lambda 2) - 1 \\ \implies \lambda &= -\frac 2m \\ \implies p_i &= \frac 1{m} \\ \implies \sum p_i^2 &\leq \sum \frac 1{m^2} = \frac 1{m} \leq \max_i p_i \end{align}

La primera desigualdad proviene del hecho de que el valor alcanzado es de hecho un máximo (esto requiere una prueba, aunque no es demasiado difícil. Aquí es donde hacemos uso de positividad). La segunda desigualdad proviene del hecho de que el máximo debe ser mayor que el promedio.

Vale la pena señalar que si la distribución no es uniforme, a continuación, la última desigualdad es estricta, y el método más simple es estrictamente mejor.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X