Escribamos $\tilde{f}(x) = \frac{1}{|\mathbf{S}^{n-1}|}\int_{\mathbf{S}^{n-1}}e^{-\alpha|x-\omega|^2}dS(\omega)$ . Desde $\tilde{f}$ es radialmente simétrica, podemos suponer $x = re$ donde $r = |x|$ y $e = (1,0,\ldots,0)$ . Entonces podemos escribir
$$\tilde{f}(re) = \frac{1}{|\mathbf{S}^{n-1}|}\int_{\mathbf{S}^{n-1}}e^{-\alpha(r^2-2r\langle e,\omega\rangle+1)}dS(\omega) = \frac{e^{-\alpha(r^2+1)} }{|\mathbf{S}^{n-1}|}\int_{\mathbf{S}^{n-1}}e^{2\alpha r\langle e,\omega\rangle}dS(\omega).$$
No tener en cuenta el factor $e^{-\alpha}$ y definir $f(r) = \frac{e^{-\alpha r^2} }{|\mathbf{S}^{n-1}|}\int_{\mathbf{S}^{n-1}}e^{2\alpha r\langle e,\omega\rangle}dS(\omega)$ . Podemos observar que $X: \omega \mapsto \langle e,\omega\rangle\in [-1,1] $ es una variable aleatoria con función de densidad de probabilidad $p_n(x) = c_n (1-x^2)^{\frac{n-3}{2}}$ en $[-1,1]. $ ( $c_n$ es una constante positiva tal que $\int_{[-1,1]}p_n(x)dx =1$ .)
Así, tenemos $f(r) = e^{-\alpha r^2}\int_{-1}^{1} e^{2\alpha r x}p_n(x)dx\;(*)$ y observe que $M_X(t) = \int_{-1}^{1} e^{t x}p_n(x)dx$ es una función generadora de momentos(mgf) de $X$ y $C_X(t) = \log M_X(t)$ es la función generadora de cúmulos de $X$ .
Tomando el logaritmo en ambos lados de $(*)$ maximizamos la siguiente función $$-\alpha r^2 + C_X(2\alpha r).$$
La condición de primer orden para esto es:
$$r = C'_X(2\alpha r) = \frac{M'_X(2\alpha r)}{M_X(2\alpha r)}\quad \cdots (**).$$ Desde $r=0$ es una solución trivial de $(**)$ asumimos $r>0$ .
Lo que sigue es una interpretación probabilística de esta ecuación. En primer lugar, $$C'_X(t) = \frac{M'_X(t)}{M_X(t)} = E\left[X \frac{e^{tX}}{M_X(t)}\right] = \int x\cdot \frac{e^{tx}p(x)}{\int e^{ty}p(y)dy}dx$$ es un valor esperado de otra variable aleatoria $X_t$ con la nueva densidad $\frac{e^{tx}p(x)}{\int e^{ty}p(y)dy}$ . Así, $r = C'_X(2\alpha r) $ debe ser inferior a 1.
En segundo lugar, $C''_X(t) = \frac{M''_X(t)}{M_X(t)}- \left(\frac{M'_X(t)}{M_X(t)}\right)^2$ de la misma manera se puede ver como la varianza de $X_t$ y por lo tanto es mayor que $0$ (no es cero, ya que la distribución no es degenerada.) Entonces $C'_X(t)$ es una función estrictamente creciente. Además, debe ser que $C'_X(t) \uparrow 1$ como $t\to \infty$ ya que la distribución de $X_t$ converge a la de la variable aleatoria degenerada $X\equiv 1$ .
A partir del argumento anterior, vemos que hay un único $$\alpha= A(r) := \frac{(C'_X)^{-1}(r)}{2r}$$ para cada $0<r<1$ satisfaciendo $(**)$ . La singularidad de $r$ correspondientes a cada $\alpha$ se deduce una vez si demostramos que $A(r)$ es estrictamente creciente en $(0,1)$ . Desde $C'_X$ es una biyección creciente desde $(0,\infty)$ a $(0,1)$ podemos sustituir $r$ para $r = C'_X(u)$ y mostrando $1/A(r) = \frac{2C'_X(u)}{u}$ está disminuyendo en $u\in(0,\infty)$ está bien.
Nuestra (casi) última afirmación es que $r \mapsto C'_X(r)/r$ es una función decreciente. Escribamos por cambio de variable $u = (x+1)/2$ , $$M_X(r) = e^{-r}\int_0^1 e^{2ru} \frac{u^{\frac{n-3}{2}}(1-u)^{\frac{n-3}{2}}}{B((n-1)/2,(n-1)/2)}du =: e^{-r}\Phi(2r).$$ (Aquí, $B(x,y)$ es una función beta y $\Phi$ es un mgf de la distribución beta).
Podemos calcular $\Phi(r)$ explícitamente y omitiendo el procedimiento , tenemos
$$\Phi(r) =\sum_{k=0}^{\infty} \frac{a_k}{k!}r^k,\quad a_k := \prod_{j=0}^{k-1} \frac{\frac{n-1}{2}+j}{n-1+j}.$$ ( https://en.wikipedia.org/wiki/Beta_distribution ) A partir de esto, tenemos $$C'_X(r/2) = 2\left(\frac{\Phi'(r)}{\Phi(r)}-1/2\right). $$ Algunos rendimientos laborales más:
$$\Phi'(r) - \frac{1}{2}\Phi(r) = \sum_{k\geq 0} (a_{k+1}-a_k/2)\frac{r^k}{k!} = r \sum_{k=0}^{\infty}(a_{k+2}-a_{k+1}/2)\frac{r^k}{(k+1)!},$$ $$\frac{1}{4}\frac{C'_X(r/2)}{r/2} = \frac{\sum_{k=0}^{\infty}(a_{k+2}-a_{k+1}/2)\frac{r^k}{(k+1)!}}{\sum_{k=0}^{\infty} a_k\frac{r^k}{k!}}.$$
Utilizando $\frac{a_{k+1}}{a_k} = \frac{1}{2}(1 + \frac{k}{n+k-1})$ tenemos $$\sum_{k=0}^{\infty}(a_{k+2}-a_{k+1}/2)\frac{r^k}{(k+1)!} = \sum_{k=0}^{\infty}\frac{a_{k+1}}{n+k}\frac{r^k}{k!}.$$ Finalmente, $$\frac{d}{dr}\left(\frac{1}{4}\frac{C'_X(r/2)}{r/2}\right) = \frac{\sum_{k=0}^{\infty}\frac{a_{k+2}}{n+k+1}\frac{r^k}{k!}\sum_{k=0}^{\infty} a_k\frac{r^k}{k!} -\sum_{k=0}^{\infty}\frac{a_{k+1}}{n+k}\frac{r^k}{k!}\sum_{k=0}^{\infty} a_{k+1}\frac{r^k}{k!} }{\left(\sum_{k=0}^{\infty} a_k\frac{r^k}{k!}\right)^2}.$$ Ahora el denominador es a su vez una serie de potencias cuyo $s$ -coeficiente de la $c_s$ viene dada por $$c_s = \sum_{j=0}^s \left(\frac{a_{j+2} a_{s-j}}{n+j+1}-\frac{a_{j+1} a_{s-j+1}}{n+j}\right)\frac{1}{j!(s-j)!}.$$ Utilizando la fórmula de recursión de $a_k$ , $$\begin{multline} c_s= -\sum_{j=0}^s \frac{(s-2j)(n-1)+2(s-j)}{(n+j)(n+j+1)(n+2s-2j-1)}\frac{a_{j+1} a_{s-j+1}}{j!(s-j)!}\\ = -\frac{1}{2}\sum_{j=0}^s \left [\frac{(s-2j)(n-1)+2(s-j)}{(n+j)(n+j+1)(n+2s-2j-1)} +\frac{(2j-s)(n-1)+2j}{(n+2j-1)(n+s-j)(n+s-j+1)} \right]\frac{a_{j+1} a_{s-j+1}}{j!(s-j)!}. \end{multline}$$ Y, $$\begin{multline}\frac{(s-2j)(n-1)+2(s-j)}{(n+j)(n+j+1)(n+2s-2j-1)} +\frac{(2j-s)(n-1)+2j}{(n+2j-1)(n+s-j)(n+s-j+1)} \\ =(n-1)(s-2j)\left[ \frac{1}{(n+j)(n+j+1)(n+2s-2j-1)} - \frac{1}{(n+2j-1)(n+s-j)(n+s-j+1)}\right] + \text{positive terms}\\ >\frac{(n-1)(s-2j)^2\{2j(s-j) +(n-1)(s-3) -4\}}{(n+j)(n+j+1)(n+2j-1)(n+s-j)(n+s-j+1)(n+2s-2j-1)} \geq 0, \end{multline}$$ si $s\geq 3, 1\leq j\leq s-1$ .
En caso de que $j=0$ o $j=s$ es bastante fácil comprobar que $$\frac{s}{n(n+2s-1)} - \frac{s}{(n+s)(n+s+1)}\geq 0.$$ Por lo tanto, la negatividad de $c_s, s\geq 3$ se establece. Algunas labores más rinden: $$c_0 = 0, c_1 = c_2 = -\frac{1}{4n^2(n+2)}.$$
Dado que todos los $c_s \leq 0$ el denominador es menor que 0, y la afirmación $\frac{d}{dr}\left(\frac{C'_X(r)}{r}\right)<0$ está demostrado.
Por último, observe que $\lim_{r\to 0^+}A(r) = \lim_{u\to 0^+}\frac{u}{2C'_X(u)} = \frac{1}{2C''_X(0)} = \frac{n}{2}.$ Esto se debe a que $C''_X(0)$ es una varianza de $X=\langle e,\omega\rangle=\omega_1$ y este valor es igual a $$\frac{1}{|\mathbf{S}^{n-1}|}\int_{\mathbf{S}^{n-1}}\omega_1^2 dS(\omega)=\frac{1}{|\mathbf{S}^{n-1}|}\int_{\mathbf{S}^{n-1}}\frac{\omega_1^2 +\cdots \omega_n^2}{n} dS(\omega) = \frac{1}{n}.$$ Por lo tanto, $A((0,1)) = (\frac{n}{2}, \infty)$ y concluimos que:
(1) si $0<\alpha \leq \frac{n}{2}$ entonces el único maximizador global es $r=0$ .
(2) si $\alpha >\frac{n}{2}$ entonces el único maximizador global es $r = A^{-1}(\alpha)>0$ . Aquí, $0$ no es un maximizador aunque satisfaga la FOC, ya que no se cumple la condición de segundo orden: $$(-\alpha r^2 + C_X(2\alpha r))''\Big|_{r=0}=2\alpha(\frac{2\alpha}{n}-1) >0. $$