22 votos

¿Cotación inferior para la suma de coeficientes binomiales?

Hola, soy nuevo aquí. Sería genial si alguien sabe una buena respuesta.

¿Existe un buen límite inferior para la cola de las sumas de coeficientes binomiales? Estoy particularmente interesado en el caso más simple $\sum_{i=0}^k {n \choose i}$ . Sería muy bueno que el límite fuera lo suficientemente general como para aplicarlo a $\sum_{i=0}^k {n \choose i}(1-\epsilon)^{n-i}\epsilon^i$ .

Para el límite superior más comúnmente utilizado, se utilizan variantes de Chernoff, Hoeffding o las desigualdades más generales de Bernstein. Pero para el límite inferior, ¿qué podemos hacer?

Se podría utilizar Stirling para calcular $n!$ y luego ${n \choose k}$ y luego tomar la suma:

${n \choose k} = \frac{n!}{k!}{(n-k)!}$ y la fórmula de Stirling (una versión debida a Robbins) da $$n! = \sqrt{2\pi}n^{-1/2}e^{n-r(n)}$$ con el resto $r(n)$ Satisfaciendo a $\frac{1}{12n} \leq r(n) \leq \frac{1}{12n+1}$ .

Para el siguiente paso, es fácil aplicar Stirling tres veces. Pero, aún mejor, me he dado cuenta de que Stanica 2001 tiene una ligera mejora del límite inferior que también es más sencilla de enunciar (pero más difícil de demostrar):

$${n \choose k} \geq \frac{1}{\sqrt{2\pi}}2^{nH(k/n)}n^{1/2}k^{-1/2}(n-k)^{-1/2}e^{-\frac{1}{8n}}$$

para $H(\delta) = -\delta \log \delta -(1-\delta)\log(1-\delta)$ siendo la entropía de una moneda de probabilidad $\delta$ .

Ahora el paso 3. Si $k$ es pequeño, es razonable aproximar la suma por su mayor término, que debería ser el ${n \choose k}$ plazo a menos que $\epsilon$ es incluso menor que $k/n$ . Así que es genial, ¡hemos terminado!

Pero espera. Este límite está desviado por un factor de como máximo $\sqrt{n}$ . Sería mejor estar fuera de lugar por un máximo de $1 + O(n^{-1})$ como podríamos conseguir si tuviéramos la serie Taylor adecuada. ¿Existe una forma agradable de hacer la suma? ¿Debo calcular $\int_{0}^{k/n} 2^{nH(x)}\frac{1}{\sqrt{2\pi}}x^{-1/2}(1-x)^{-1/2}n^{1/2}e^{-1/8n} dx$ y compararlo con la suma discreta, e intentar acotar la diferencia? (Esta técnica ha funcionado para los límites de tipo Stirling.) (Los términos que no dependen de $k$ o $x$ se puede mover fuera de la integral).

Otro enfoque sería partir de Chernoff en lugar de Stirling (es decir, "¿Cómo se garantiza la estanqueidad de Chernoff, en función de n y k/n?")

¿Alguna idea o referencia? Gracias.

1voto

Kyle Weinert Puntos 1

Consulte el documento: Aproximaciones para la probabilidad en las colas de la distribución binomial por I. Blake, H. Darabian. Puede ser útil.

0voto

lterrier Puntos 31

Si está dispuesto a calcular algunos coeficientes binomiales, entonces (n+1) elija k + (n+1) elija (k-2) + ... + (n+1) elegir (k-2l) es una buena cota inferior incluso para l pequeños. ( Estoy asumiendo que sus términos sumandos deben tener i donde tienen k.) Por supuesto, lo bueno depende de lo cerca que esté k de n/2, en cuyo caso uno puede mirar las diferencias de 2^(n/2).

Gerhard "Ask Me About System Design" Paseman, 2011.02.15

0voto

Tim Kersten Puntos 128

Dejemos que $X_1,\ldots,X_n$ ser iid de $\mbox{Bernoulli}(\epsilon)$ con desviación estándar $\sigma := (\epsilon(1-\epsilon))^{1/2}$ . Definir $S_n := \sum_{i=1}^n X_i$ . Entonces, por Berry-Esseen tenemos $$ \sup_{t \in \mathbb R}|P(S_n - np \le t) - \Phi_\sigma(\sqrt{n}t)| = \mathcal O(n^{-1/2}), $$ donde $\Phi_\sigma$ es la FDA de una distribución normal centrada con varianza $\sigma^2$ .

Por lo tanto, si $Q_\sigma := 1 - \Phi_\sigma$ entonces

$$ \begin{split} P(S_n \ge k) - P(S_n=k) &= P(S_n > k) = 1 - P(S_n \le k)\\ &=1 - P(S_n - np \le k-np)\\ &= Q_\sigma((k-np)n^{-1/2}) + \mathcal O(n^{-1/2}). % \\&= Q_\sigma(kn^{-1/2}-pn^{1/2}) + \mathcal(n^{-1/2}). \end{split} $$

A continuación, puede utilizar los resultados de concentración / anticoncentración estándar para la distribución normal para obtener límites en diferentes regímenes para $k$ . Por ejemplo, si $k \ge np - (n(c\log n))^{1/2}\sigma$ con $0 < c \le 1$ entonces utilizando la desigualdad de Hoeffding da

$$ \begin{split} P(S_n \ge k) - P(S_n = k) &\le Q_1(c\log n) + \mathcal O(n^{-1/2})\\ &\le \mathcal O(n^{-c/2}) + \mathcal O(n^{-1/2})\\ &= \mathcal O(n^{-c/2}) \to 0. \end{split} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X