Lo sabemos gracias a la aproximación de Stirling: $\log n! \approx n \log n$
Entonces, ¿cómo aproximar $\log {m \choose n}$ ?
Lo sabemos gracias a la aproximación de Stirling: $\log n! \approx n \log n$
Entonces, ¿cómo aproximar $\log {m \choose n}$ ?
Una mejor aproximación para el logaritmo de un factorial se puede encontrar utilizando $\log n! \approx n \log n - n$ . Curiosamente, los términos adicionales en la aproximación del coeficiente binomial se anulan, y el resultado es el mismo que si se utiliza la aproximación más simple $\log n! \approx n\log n$ :
$$\begin{align} \log {n\choose m} & = \log \frac{n!}{m!(n-m)!} \\ & = \log n! - \log m! - \log (n-m)! \\ & \approx n \log n - n - m \log m + m - (n-m) \log (n-m) + n-m \\ & = n \log n - m \log m - (n - m) \log (n-m) \end{align}$$
Una aproximación aún mejor utiliza más términos de la aproximación de Stirling, dando $\log n! \approx (n+\tfrac{1}{2})\log n - n + \tfrac{1}{2}\log 2\pi$ y por lo tanto
$$\begin{align} \log {n\choose m} &\approx (n+\tfrac{1}{2})\log n - (m+\tfrac{1}{2})\log m - (n-m+\tfrac{1}{2})\log (n-m) - \tfrac{1}{2}\log 2\pi \\ & = n\log n - m \log m - (n-m)\log(n-m) + \cdots \\ & \qquad +\tfrac{1}{2} (\log n - \log m - \log (n-m) - \log 2\pi) \end{align}$$
donde el último término es la corrección por utilizar más términos de la aproximación de Stirling.
No estoy seguro de haber entendido bien tu segunda aproximación: ¿has utilizado la elipsis (" ") para indicar la continuación en la línea siguiente o realmente faltan términos (que es la única forma en que la he visto utilizar antes)? De todos modos, dado su nombre, llamaré a esta expansión "serie de Taylor" en mi código. Eso no confundirá a nadie en absoluto.
Utilizando $\log(n!) ≈ n \log(n)$ y el definición del coeficiente binomial , $\log{m \choose n} ≈ m \log{m} - (m-n) \log{(m-n)} - n \log{n}$ . Lo mismo debería funcionar para cualquiera de los enunciados más precisos de La aproximación de Stirling .
Si se expande la aproximación de stirling para $n\choose\alpha n$ También puede notar que se puede escribir como $$\log{n\choose\alpha n} = n H(a) - \tfrac12\log(2\pi n\,\alpha(1-\alpha)) + O\left(\tfrac1n\right)$$ , donde $$H(a) = \alpha \log\tfrac1\alpha + (1 - \alpha) \log\tfrac1{1-\alpha}$$ es la función de entropía binaria (en nats).
Si además observa que $n\alpha(1-\alpha)$ es la varianza de una distribución binomial, resulta bastante fácil de recordar. (Y se empieza a ver cómo se puede derivar el teorema del límite central para las distribuciones binomiales).
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.