323 votos

La intuición para la definición de la función Gamma?

En estas notas por Terence Tao es una prueba de la fórmula de Stirling. Me gusta mucho más de ella, pero a un paso crucial que utiliza la integral de la identidad

$$n! = \int_{0}^{\infty} t^n e^{-t} dt$$

viniendo de la función Gamma. Tengo un matemático confesión que hacer: yo nunca "grokked" esta identidad. ¿Por qué debo esperar de la integral de la derecha para darme el número de elementos en el grupo simétrico de a $n$ cartas?

(No es que yo no sé cómo demostrarlo. Es muy divertido para probar; mi favorito de la prueba se observa que es equivalente a la integral de la identidad $\int_{0}^{\infty} e^{(x-1)t} dt = \frac{1}{1 - x}$. Pero si alguien me preguntara, "sí, pero ¿por qué, en realidad?" Yo no tendría idea de qué decir.)

Entonces, ¿qué son más intuitivas formas de pensar acerca de esta identidad? Es no probabilística interpretación? ¿Qué tipo de variable aleatoria tiene la función de densidad de probabilidad $\frac{t^n}{n!} e^{-t}$? (¿Qué tiene que ver todo esto con Tate tesis?)

Como una medida aproximada de lo que yo estoy buscando, su respuesta debe hacer es obvio que $t^n e^{-t}$ attains its maximum at $t = n$.

Edit: El tipo de explicación que estoy buscando, como he descrito en los comentarios, es similar a esta explicación de la beta integral.

111voto

codeConcussion Puntos 7250

Yo no he conseguido esta recta, pero creo que una forma de hacerlo es pensar acerca de la elección de puntos al azar de los reales positivos. Esta respuesta es bastante más largo de lo que realmente debe ser, porque estoy pensando acerca de esto en un par de (estrechamente relacionado con las formas, que probablemente no es necesario, y usted puede decidir rechazar la interesante partes y guardar cualquier cosa de valor. A muy grandes rasgos, la idea es que si "al azar" elija los puntos de positivos reales y colocarlos en orden creciente, entonces la probabilidad de que el (n+1)ésimo punto es en un pequeño intervalo (t,t+dt) es un producto de las probabilidades de los eventos independientes, n factores de t para la elección de n puntos en el intervalo [0,t], uno de los factores de $e^{-t}$ as all the other points are in $[t,\infty)$, one factor of dt for choosing the point in $(t,t+dt)$, and a denominator of $n!$ proveniente de la reordenación. Al menos, como un ejercicio de hacer un simple problema mucho más difícil, aquí va...

Voy a empezar con un poco de teoría antes de intentar describir intuitivamente por qué la densidad de probabilidad $\frac{t^n}{n!}e^{-t}$ cop.

Podemos ver el proceso de Poisson homogéneo (con tasa de parámetro 1). Una manera de pensar en esto es tomar una secuencia independiente exponencialmente distribuido variables aleatorias con la tasa parámetro 1, $S_1,S_2,\ldots$, and set $T_n=S_1+\cdots+S_n$. As has been commented on already, $T_{n+1}$ has the probability density function $\frac{t^n}{n!}e^{-t}$. I'm going to avoid proving this immediately though, as It would just reduce to manipulating some integrals. Then, the Poisson process $X(t)$ counts the number of times $T_i$ acostado en el intervalo [0,t].

También podemos ver la distribución de Poisson punto de procesos (aka, Poisson aleatoria de las medidas, sino que la página de Wikipedia es muy pobre). Esto es sólo hace riguroso de la idea de la escogiendo al azar desordenada de los conjuntos de puntos de un sigma-finito medir el espacio $(E,\mathcal{E},\mu)$. Technically, it can be defined as a set of nonnegative integer-valued random variables $\{N(A)\colon A\in\mathcal{E}\}$ counting the number of points chosen from each subset A, such that $N(A)$ has the Poisson distribution of rate $\mu(A)$ and $N(A_1),N(A_2),\ldots$ are independent for pairwise disjoint sets $A_1,A_2,\ldots$. Por definición, esto satisface $$ \begin{array}{}\mathbb{P}(N(A)=n)=\frac{\mu(A)^n}{n!}e^{-\mu(A)}.&&(1)\end{array} $$ Los puntos de $T_1,T_2,\ldots$ above defining the homogeneous Poisson process also define a Poisson random measure with respect to the Lebesgue measure $(\mathbb{R}_+,{\cal B},\lambda)$. Once you forget about the order in which they were defined and just regard them as a random set that is, which I think is the source of the $n!$. If you think about the probability of $T_{n+1}$ being in a small interval $(t,t+\delta t)$ then this is just the same as having $N([0,t])=n$ and $N((t,t+\delta t))=1$, which has probability $\frac{t^n}{n!}e^{-t}\delta t$.

Así que, ¿cómo podemos elegir puntos al azar para que cada pequeño conjunto $\delta A$ has probability $\mu(\delta A)$ of containing a point, and why does (1) pop out? I'm imagining a hopeless darts player randomly throwing darts about and, purely by luck, hitting the board with some of them. Consider throwing a very large number $N\gg1$ of darts, independently, so that each one only has probability $\mu(A)/N$ of hitting the set, and is distributed according to the probability distribution $\mu/\mu(A)$. This is consistent, at least, if you think about the probability of hitting a subset $B\subseteq A$. The probability of missing with all of them is $(1-\mu(A)/N)^N=e^{-\mu(A)}$. This is a multiplicative function due to independence of the number hitting disjoint sets. To get the probability of one dart hitting the set, multiply by $\mu(A)$ (one factor of $\mu(A)/N$ for each individual dart, multiplied by N because there's N of them). For n darts, we multiply by $\mu(A)$ n veces, para picking n dardos a golpear, luego se divide por n! porque contamos con más de contado a los subconjuntos de tamaño n por este factor (debido a un recuento de todos los n! formas de realizar el pedido). Esto le da (1). Creo que este argumento puede probablemente ser limpiado un poco.

Volviendo a la elección de puntos al azar en el positivo de reales, esto le da una probabilidad de $\frac{t^n}{n!}e^{-t}dt$ of picking n in the interval $[0,t]$ and one in $(t,t+dt)$. If we sort them in order as $T_1\lt T_2\lt\cdots$ then $\mathbb{P}(T_1\gt t)=e^{-t}$, so it is exponentially distributed. Conditional on this, $T_2,T_3,\ldots$ are chosen randomly from $[T_1,\infty)$, so we see that the differences $T_{i+1}-T_{i}$ son independientes e idénticamente distribuidas.

¿Por qué es $\frac{t^n}{n!}e^{-t}$ maximized at t=n? I'm not sure why the mode should be a simple property of a distribution. It doesn't even exist except for unimodal distributions. As $T_{n+1}$ is the sum of n+1 IID random variables of mean one, the law of large numbers suggests that it should be peaked approximately around n. The central limit theorem goes further, and gives $\frac{t^n}{n!}e^{-t}\approx\frac{1}{\sqrt{2\pi n}}e^{-(t-n)^2/{2n}}$. Stirling's formula is just this evaluated at $t=n$.

¿Qué tiene esto que ver con la Tate tesis? No sé, y yo no lo he leído (pero piensa), pero tiene una idea vaga de lo que se trata. Si no hay nada a hacer con él, tal vez sea algo que ver con el hecho de que estamos relacionados con las sumas de variables aleatorias independientes $S_1+\cdots+S_n$ distributed with respect to the Haar measure on the multiplicative group $\mathbb{R}_+$ (edit: oops, that's not true, the multiplicative Haar measure has cumulative distribution given by log, not exp) with randomly chosen sets according to the Haar measure on the additive group $\mathbb{R}$.

59voto

Jon Clegg Puntos 661

El enfoque geométrico de obras.

Vamos a calcular el volumen de la n$ dimensional ball, $D^{2n}$, in two ways. One way is extremely clever but has been known for centuries and provides interesting insights: it's based on Liouville's trick. Specifically, we will compute two integrals in polar coordinates, one of which is the volume of the ball and the other of which reduces to a product of one-dimensional integrals. Both integrands will depend (at most) on the radial coordinate $r$, which lets us separate out the surface area of the boundary of the ball as a common factor. Write this surface area as $S_{2n-1}$.

Hay, básicamente, una forma de hacer este truco: integrar a $\exp(-r^2)$. Its integral over $\mathbb{R}^{2n}$ es igual a

$$S_{2n-1} \int_0^\infty {\exp\left(- r^2 \right) r^{2n-1} dr}.$$

Sin embargo, debido a $r^2 = x_1^2 + x_2^2 + \ldots + x_{2n}^2$, the integrand (in Cartesian coordinates $\left( x_1, x_2, \ldots, x_{2n} \right)$) factors as $\exp\left(-r^2 \right) = \exp\left(-x_1^2 \right) \cdots \exp\left(-x_{2n}^2 \right)$, each of which must be integrated from $-\infty$ to $+\infty$. De dónde

$$S_{2n-1} \int_0^\infty {\exp \left(- r^2 \right) r^{2n-1} dr} = \left( \int_{- \infty}^ \infty {\exp \left( -x^2 \right) dx} \right) ^{2n}.$$

Voy a llamar a la mano izquierda integral de la $\tfrac{1}{2} \Gamma \left(n \right)$, because that is what it is (as a simple change of variables shows). In the same notation, $\Gamma \left(1/2 \right) = \int_{-\infty}^\infty {\exp\left(-x^2 \right) dx}$. Algebraic re-arrangement of the foregoing yields the volume of $D^{2n}$

$$|D^{2n} | = S_{2n - 1} \int_0^1 {r^{2n - 1} dr} = \frac{{S_{2n - 1} }} {{2n}} = \frac {\Gamma \left(1/2 \right)^{2n}} { n \Gamma \left(n \right) }.$$

Ese fue el primer método: el resultado es un familiar, pero se ha dejado expresado de una manera que mejor revela su origen en polares y Cartesianas de la integración.

La siguiente manera para el cálculo de la bola del volumen es, creo yo, de nuevo. Es inspirado por el Principio de Cavalieri: la idea de que puede cambiar rodajas de un sólido alrededor sin cambiar el volumen del sólido. La generalización es moverse en dos dimensiones rodajas alrededor y cambiar sus formas mientras lo hace, pero de una manera que no cambia sus áreas. De ello se deduce que el nuevo sólido tiene el mismo (hipervolumen) como el original, aunque podría tener una completamente diferente forma.

Vamos a calcular el volumen de una región $Q_n$ in $\mathbb{R}^{2n}$. It is conveniently described by identifying $\mathbb{R}^{2n}$ with $\mathbb{C}^{n}$, using coordinates $z_i = \left( x_{2i - 1}, x_{2i} \right)$, en términos de que

$$Q_n = \{ \mathbf{z} \in \mathbb{C}^n :0 \leq \left| {z_1 } \right| \leq \left| {z_2 } \right| \leq \cdots \leq \left| {z_n } \right| \leq 1 \}.$$

Si estos fueran reales de las variables, podríamos hacer que el volumen de la preservación de la transformación de $w_1 = z_1, w_2 = z_2 – z_1, \ldots , w_i = z_i – z_{i-1}, \ldots, w_n = z_n – z_{n-1}$, with the sole restriction that the sum of the $w_i$ (all of which are nonnegative) not exceed 1. Because they are complex variables, though, we have to consider the area of an annulus bounded by $z_{i-1}$ and $z_i$: it is proportional to $z_i^2 – z_{i – 1}^2$. The circle of the same area has radius $w_i$ for which $w_i^2 = z_i^2 – z_{i – 1}^2$. Therefore, if we define new variables $w_i$ according to this formula, we obtain a new region- - one of substantially different shape- - having the same volume. This region is defined by $\left| {w_1 }^2 \right| + \cdots + \left| {w_n }^2 \right| \le 1$: that is, it's our old friend $D^{2n}$. Therefore, the volume of $Q_n$ equals the volume of $D^{2n}$ .

Ahora, para la línea de golpe: $Q_n$ is a fundamental domain for the action of $S[n]$, the symmetric group, on the product of $n$ disks $T^{2n} = \left( D^2 \right) ^n$; $S[n]$ acts by permuting the Complex coordinates $z_1, \ldots, z_n$. The volume of $T^{2n}$ equals $|D^2|^n = \pi ^n$. Writing $|S[n]|$ for the number of permutations and equating our two completely different calculations of the volume of the n$ da bola

$$\pi ^ n / |S[n]| = \frac {\Gamma \left(1/2 \right)^{2n}} { n \Gamma \left(n \right) },$$

de dónde

$$|S[n]| = \frac{{\pi ^n n\Gamma \left( n \right)}}{{\Gamma \left( {1/2} \right)^{2n} }}.$$

Esto simplifica: la fórmula de volumen para $n = 2$ must give the area of the unit circle, equal to $\pi$, whence $\Gamma \left( 1/2 \right)^2 = \pi$. Finalmente, entonces,

$$|S[n]| = n\Gamma \left( n \right).$$

Voy a terminar diciendo que Liouville método es perfectamente natural, lo encuentro cuando se trabaja con la distribución Normal multivariante, por lo que, realmente, no es un hecho aislado truco, pero es más bien un buen resultado que expresan una propiedad definitoria de lo Normal (Gaussiana) varia. Hay, por supuesto, muchas otras maneras de calcular el volumen de $D^{2n}$, pero esto nos da la función Gamma directamente.

17voto

Victor Wang Puntos 411

Lo siento para "revivir", pero hay algo que he notado mientras que la escritura de Otoño de 2012 OMO Problema 25. OMI se le da una especie de casitas de perspectiva sobre la función gamma (como un caso particular de un "continuo" de generación de función), así que esperemos que esto no es off-topic. Puede ser algo relacionado con George Lowther la respuesta de arriba, pero no tengo el fondo completamente de entender y apreciar su post. Además, podría haber un poco de aparentemente irrelevante aquí.

De todos modos, primero considere el siguiente "discretos" problema:

Encontrar el número de enteros soluciones a $a+b+c+d=18$ with $N$ be a positive integer and $M$ be a positive real number. Find the probability that $y_1,y_2,\ldots,y_{N-1}\le M$ for a random solution in nonnegative reals to $y_0+y_1+\cdots+y_N=1$\le a,b,c,d\le 6$.

Esto es bastante estándar, a través de CIRCULARES o de generación de funciones: por una decente discusión, ver este AoPS hilo.

Ahora considere la posibilidad de un cierre "continuo" de la variante:

Deje $y_0,y_N\le M$.

El directo de la generalización habrían $\int_0^\infty x^t\; dt$ has a $ coefficient for each $x^t$ term, and thus corresponds to $y_0,y_N$---the discrete analog would be something like $\sum_{t=0}^{\infty}x^t$. For $y_1,\ldots,y_{N_1}$, which are bounded above by $M$, we instead have $\int_0^M x^t\; dt$. By "convolution" the desired probability is then $$\frac{[x^1](\int_0^M x^t\; dt)^{N-1}(\int_0^\infty x^t\; dt)^2}{[x^1](\int_0^\infty x^t\; dt)^{N+1}}.$$ But $\int_0^M x^t\; dt = \frac{x^M - 1}{\ln{x}}$ and for positive integers $L$, $(-\ln{x})^{-L} = \frac{1}{(L-1)!}\int_0^\infty x^t t^{L-1}\; dt$. Note that this is essentially the gamma function when $x=e^{-1}$, and for $L=1$ we have $\int_0^\infty x^t\; dt = (-\ln{x})^{-1}$. This is not hard to prove by differentiating (w.r.t. $x$) under the integral sign, but for integer $L$ there's a simple combinatorial proof of $$\frac{1}{(L-1)!}\int_0^\infty x^t t^{L-1}\; dt = (\int_0^\infty x^t\; dt)^L$$ which may provide a bit of intuition for the gamma function. Indeed, suppose we choose $L-1$ points at random from the interval $[0,t]$; the resulting sequence is nondecreasing with probability $\frac{1}{(L-1)!}$. These $L-1$ "dividers" split the interval $[0,t]$ into $L$ nonnegative reals adding up to $t$, which corresponds to the convolution on the RHS. It's not hard to check that this yields a bijection, which explains the $[x^t]$ coefficient of the LHS ($\frac{t^{L-1}}{(L-1)!}$). (Compare with the classical "balls and urns" or "stars and bars" argument for the discrete analog. In fact, it shouldn't be hard to interpret the $[x^t]$ así, pero me la guardo como este ya que el OMO problema utiliza esta versión (y ambas versiones permiten en esencia la misma solución).

Es fácil generalizar el PASTEL de solución a los discretos versión, pero he aquí lo que me dieron cuando me trató de generalizar las funciones de generación de la solución (por desgracia no es muy riguroso, pero siento que todo debe ser correcto).

Para ampliar la discreta funciones de generación de la solución, supongamos que trabajamos con poder formal "integrales" indexados por no negativos reales en lugar de poder formal de la serie (indexados por números enteros no negativos). Como un ejemplo básico, la integral de la $$ and $$ coeficiente como un caso límite de la discreta versión).

Ahora, de vuelta al problema: "convolución" de nuevo (pero se utiliza en una manera sustantiva este momento) nos encontramos con $$\begin{align*} [x^1]\left(\int_0^M x^t\; dt\right)^{N-1}\left(\int_0^\infty x^t\; dt\right)^2 y=[x^1](1-x^M)^{N-1}(-\ln{x})^{-(N-1)}(-\ln{x})^{-2} \\ y=[x^1](1-x^M)^{N-1}\frac{1}{N!}\int_0^\infty x^t t^N\; dt \\ &=\frac{1}{N!}\sum_{0\le k\le la N-1,\frac{1}{M}}(-1)^k\binom{N-1}{k}(1 kM)^N \end{align*}$$ The desired probability thus comes out to $\sum_{0\le k\le N-1,\frac{1}{M}}(-1)^k\binom{N-1}{k}(1-kM)^N$[x^1](\int_0^\infty x^t\; dt)^{N+1} =[x^1](-\ln{x})^{-(N+1)} =[x^1]\frac{1}{N!}\int_0^\infty x^t t^N\; dt =\frac{1}{N!}.%#%#%.

Usted puede ver cómo esto se aplica explícitamente a los OMO problema en mi post aquí. Todo lo que escribí anteriormente se basa en la "Oficial" Continuo "la Generación de la Función de la Solución".

14voto

Jon Clegg Puntos 661

Usted está realmente pidiendo una conexión directa entre alguna de las propiedades de $n!$ y el integral. Esto se puede hacer desde la recursividad

$S[n] = nS[n-1], S[0] = 1$

donde $S[n]$ is the order of the symmetric group on $n$ elements. The exponential generating function for this series equals /(1-t)$. As in your favorite proof, replace that by $\int_{0}^{\infty} e^{(x-1)t} dt$, expand $e^{xt}$ as a series, reverse the order of summation and integration, and you recover a power series in $t$ whose terms are precisely $\int_{0}^{\infty} t^n e^{-t} dt/n!$. El resultado sigue a término por término de comparación.

Me doy cuenta de que no es un montón más de conocimiento, pero no muestran explícitamente una conexión entre una propiedad definitoria de $n!$ and the integral for the $\Gamma$ función.

Tan lejos como sus posteriores reflexiones ir: el integrando es la densidad de probabilidad de una Gamma de la variable aleatoria, por supuesto! Una buena relación es que la distribución Gamma con parámetros de $n$ is the sum (i.e., convolution) of $n$ independent exponential variates (i.e., Gamma variates with $n=1$). The expectation of an exponential variate is 1 (this is easy), whence the expectation of a Gamma variate must be $n$ (because expectations add), strongly suggesting the mode of its pdf should be near $n$ (as justified for large $n$ por el Teorema del Límite Central).

13voto

Benja Puntos 138

Esta es otra respuesta en términos de procesos de Poisson y la distribución Gamma, y todavía se utiliza un poco de cálculo que se podría llamar un truco, pero creo que por lo menos no añadir otro poco de intuición:

Considerar el proceso de Poisson homogéneo con la tasa parámetro 1; esto significa que estamos contando el número de ocurrencias de un evento que sucede con la tasa de 1. Vamos a calcular las probabilidades de $p_k(t)$ that we are in state $k$ at time $t$, i.e., that the event occurs $k$ times in the interval $[0,t]$.

Dado que el evento sucede con la tarifa 1, la probabilidad de los flujos de masa de $p_k(t)$ to $p_{k+1}(t)$ with rate 1. This means that ${p'}_0(t) = -p_0(t)$ and ${p'}_{k+1}(t) = p_k(t) - p_{k+1}(t)$. Also, $p_0(0) = 1$ and $p_{k+1}(0) = 0$. Here comes the bit of calculus: these equations have the solution $p_k(t) = \frac{t^k}{k!} e^{-t}$. (A bit fuzzily, we can read this in two parts: $\frac{t^k}{k!}$ is 1 integrated $k$ times, and $e^{-t}$ representa la probabilidad de masa que se ha perdido en la tasa de 1 a los estados más abajo de la línea. Vea a continuación para otro aproximada explicación.)

Ahora, considere el tiempo de espera $T_k$ until the $k$'th occurrence. Clearly, $T_k = t$ means that the transition from state $k-1$ to state $k$ happens at time $t$, so the probability of $T_k \le t$ is the probability that the transition happens before time $t$, and the density is the derivative of this, i.e., the rate at which probability mass flows from state $k-1$ to $k$. This equals the occurrence rate (i.e., 1) times $p_{k-1}(t)$.

Por lo que la densidad de probabilidad de la variable aleatoria $T_k$ is \cdot p_{k-1}(t) = \frac{t^{k-1}}{(k-1)!} e^{-t}$ (for $t \ge 0$). Since the probability that there is no occurrence ever is obviously zero, $\int_{0}^{\infty} \frac{t^{k-1}}{(k-1)!} e^{-t} dt = 1$.

Por cierto, esto está relacionado con una forma de pensar acerca de por qué la $\sum_{k=0}^\infty \frac{t^k}{k!} = \lim_{n\to\infty} (1 + \frac{t}{n})^n$. Supongamos que usted comience con una unidad de dinero en una cuenta y obtener el 100% de interés compuesto continuamente. Sin embargo, el interés de la cuenta original (número 0) es que no se pagan la cuenta original, pero en la cuenta #1; el interés de la cuenta de #1 es abonado en la cuenta #2, y así sucesivamente.

Entonces el dinero se $m_k(t)$ in account $k$ equals $ integrated $k$ times, and the total money $m(t)$ is $\sum_{k=0}^\infty m_k(t) = \sum_{k=0}^\infty \frac{t^k}{k!}$. But on the other hand, $m(t)$ is continuously compounded at 100% interest, so $m(t) = \lim_{n\to\infty} (1 + \frac{t}{n})^n$ por el razonamiento habitual.

Esto le da otra difusa argumento de por qué debemos tener $p_k(t) = \frac{t^k}{k!} e^{-t}$. The change in the $p_k(t)$ over time consists of two parts: on the other hand, each $p_{k+1}(t)$ increases at rate $p_k(t)$; on the other hand, each $p_k(t)$ decreases at rate $p_k(t)$. If we view the $p_k(t)$ as accounts, since we are taking money out of every account at the constant rate 1, the effect is to decrease the total amount at the constant rate 1, i.e. by a factor of $e^{-t}$, which cancels out the increase of $e^t$ due to the accruing interest. It makes some intuitive sense that we can model this effect by simply rescaling the amount of money in each of the accounts by $e^{-t}$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X