Debido a que el análisis no debe ser demasiado sensible a la previa, que debe sentirse libre para realizar modificaciones menores a la anterior. En lugar de truncar, ¿por qué no reflejan toda la probabilidad en la primera hyperquadrant? Es decir, continúe con el uso de von Mises-Fisher antes de $(x_1,x_2,\ldots,x_{n})$ ( $n\approx 500$ ), pero la base de su análisis en $(|x_1|,|x_2|,\ldots,|x_{n}|)$. Que no necesitaría de ninguna renormalization a todos.
La objeción surge de inmediato que los cálculos se requeriría un $500$veces la suma, que asciende a $2^{500}$ términos, lo cual es un imposible de cálculo. A pesar de que es cierto, un algebraicas simplificación hace posible. Yo soy lo que sugiere el uso de un previo
$$f(\mathbf x; \mu, \kappa) = C(\mu, \kappa) \sum_{i\in \{-1,1\}^n} \exp\left(\kappa (i_1 \mu_1, i_2\mu_2, \ldots, i_n\mu_n) \cdot \mathbf x\right)$$
donde $C(\mu,\kappa)$ es el de la normalización de la constante de von Mises-Fisher distribución con parámetros de $(\mu, \kappa)$ $x_i$ son no-negativos (y, sin pérdida de generalidad, se puede asumir todas las $\mu_i$ son no-negativos, también). Pero por separado por la realización de la suma sobre el último componente, lo anterior puede ser escrita
$$C(\mu \kappa) \sum_{i\in \{-1,1\}^{n-1}} \left(\exp\left(\kappa (i_1 \mu_1, i_2\mu_2, \ldots,\mu_n) \cdot \mathbf x\right) + \exp\left(\kappa (i_1 \mu_1, i_2\mu_2, \ldots,-\mu_n) \cdot \mathbf x\right)\right) \\
= C(\mu \kappa) 2\cosh(\kappa \mu_n x_n)\sum_{i\in \{-1,1\}^{n-1}} \exp\left(\kappa (i_1 \mu_1, i_2\mu_2, \ldots,i_{n-1}\mu_{n-1}) \cdot \mathbf x_{[-n]}\right)$$
donde $\mathbf x_{[-n]} = (x_1, x_2, \ldots, x_{n-1})$. Procedimiento inductivo en $n$ rendimientos
$$f(\mathbf x; \mu, \kappa) = C(\mu, \kappa) 2^n \prod_{i=1}^n \cosh(\kappa \mu_i x_i)$$
que es bastante manejable. Para $\kappa \gg 0$ (que es, como este antes de que crece un poco menos difuso), $f(\mathbf x; \mu, \kappa)$ enfoques de la truncada von Mises-Fisher distribución.