Lo sabemos gracias a la aproximación de Stirling: logn!≈nlogn
Entonces, ¿cómo aproximar \log {m \choose n} ?
Lo sabemos gracias a la aproximación de Stirling: logn!≈nlogn
Entonces, ¿cómo aproximar \log {m \choose n} ?
Una mejor aproximación para el logaritmo de un factorial se puede encontrar utilizando \log n! \approx n \log n - n . Curiosamente, los términos adicionales en la aproximación del coeficiente binomial se anulan, y el resultado es el mismo que si se utiliza la aproximación más simple \log n! \approx n\log n :
\begin{align} \log {n\choose m} & = \log \frac{n!}{m!(n-m)!} \\ & = \log n! - \log m! - \log (n-m)! \\ & \approx n \log n - n - m \log m + m - (n-m) \log (n-m) + n-m \\ & = n \log n - m \log m - (n - m) \log (n-m) \end{align}
Una aproximación aún mejor utiliza más términos de la aproximación de Stirling, dando \log n! \approx (n+\tfrac{1}{2})\log n - n + \tfrac{1}{2}\log 2\pi y por lo tanto
\begin{align} \log {n\choose m} &\approx (n+\tfrac{1}{2})\log n - (m+\tfrac{1}{2})\log m - (n-m+\tfrac{1}{2})\log (n-m) - \tfrac{1}{2}\log 2\pi \\ & = n\log n - m \log m - (n-m)\log(n-m) + \cdots \\ & \qquad +\tfrac{1}{2} (\log n - \log m - \log (n-m) - \log 2\pi) \end{align}
donde el último término es la corrección por utilizar más términos de la aproximación de Stirling.
No estoy seguro de haber entendido bien tu segunda aproximación: ¿has utilizado la elipsis (" ") para indicar la continuación en la línea siguiente o realmente faltan términos (que es la única forma en que la he visto utilizar antes)? De todos modos, dado su nombre, llamaré a esta expansión "serie de Taylor" en mi código. Eso no confundirá a nadie en absoluto.
Utilizando \log(n!) ≈ n \log(n) y el definición del coeficiente binomial , \log{m \choose n} ≈ m \log{m} - (m-n) \log{(m-n)} - n \log{n} . Lo mismo debería funcionar para cualquiera de los enunciados más precisos de La aproximación de Stirling .
Si se expande la aproximación de stirling para n\choose\alpha n También puede notar que se puede escribir como \log{n\choose\alpha n} = n H(a) - \tfrac12\log(2\pi n\,\alpha(1-\alpha)) + O\left(\tfrac1n\right) , donde H(a) = \alpha \log\tfrac1\alpha + (1 - \alpha) \log\tfrac1{1-\alpha} es la función de entropía binaria (en nats).
Si además observa que n\alpha(1-\alpha) es la varianza de una distribución binomial, resulta bastante fácil de recordar. (Y se empieza a ver cómo se puede derivar el teorema del límite central para las distribuciones binomiales).
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.