Intento comprender la razón por la que el autor de mi libro recurre a la descomposición Cholesky en este caso particular.
Parte de la base de que conocemos los precios históricos de cada activo, por lo que (para la relación entre precio y rentabilidad $R_t:=\frac{S_t}{S_0}$ ) las condiciones
- (2.16) $\rightarrow \mu-\Gamma_t\sigma\leq \widetilde{r}_t^S \leq \mu+\Gamma_t\sigma$
- (2.17) $\rightarrow e^{t\mu_{\operatorname{log}}-\Gamma \sqrt{t}\sigma_{\operatorname{log}}}\leq \widetilde{R}_t^S\leq e^{t\mu_{\operatorname{log}}+\Gamma \sqrt{t}\sigma_{\operatorname{log}}}$
que representan respectivamente el conjunto de incertidumbres para los rendimientos de un solo período y los rendimientos acumulados (con $\mu,\mu_{\operatorname{log}},\sigma, \sigma_{\operatorname{log}},\Gamma \in \mathbb{R}^+$ ) nos permiten, como él dice, estimar el límite superior y el límite inferior para $\widetilde{S}_t^m$ (con $\sim$ que denota la aleatoriedad de la variable y $m$ es el número de activos incluidos en la cesta subyacente de derivados). De hecho, sabiendo que
$U:=\begin{Bmatrix} \widetilde{R}_t^S: \underline{R}_t^S \leq \widetilde{R}_t^S \leq \overline{R}_t^S \end{Bmatrix}=\begin{Bmatrix} \widetilde{R}_t^S: (1+\underline{r}_{t-1}^S)\widetilde{R}_{t-1}^S \leq \widetilde{R}_t^S \leq (1+\overline{r}_{t-1}^S)\widetilde{R}_t^S \end{Bmatrix}=\begin{Bmatrix} \frac{\widetilde{S}_t^S}{S_0}: \frac{\underline{S}_t^S}{S_0} \leq \frac{\widetilde{S}_t^S}{S_0} \leq \frac{\overline{S}_t^S}{S_0}\end{Bmatrix}=\begin{Bmatrix} \frac{\widetilde{S}_t^S}{S_0}: (1+\underline{r}_{t-1}^S)\frac{\widetilde{S}_{t-1}^S}{S_0} \leq \frac{\widetilde{S}_t^S}{S_0} \leq (1+\overline{r}_{t-1}^S)\frac{\widetilde{S}_{t-1}^S}{S_0} \end{Bmatrix}$
para $S$ el activo único, podemos ampliar esta consideración a $m$ activos y obtener
$\Rightarrow\left\{\begin{matrix} \frac{\widetilde{S}_{t}^m}{S_0}\leq \frac{\overline{S}_{t}^m}{S_0}\Rightarrow \widetilde{S}_{t}^m\leq \overline{S}_{t}^m,\forall t=1,...,T,\forall m=1...,M\\ \frac{\widetilde{S}_{t}^m}{S_0}\geq \frac{\underline{S}_{t}^m}{S_0}\Rightarrow \widetilde{S}_{t}^m\geq \underline{S}_{t}^m,\forall t=1,...,T,\forall m=1...,M\\ \frac{\widetilde{S}_{t}^m}{S_0}\leq \frac{\widetilde{S}_{t-1}^m}{S_0}(1+\overline{r}_{t-1}^S)\Rightarrow \widetilde{S}_{t}^m\leq \widetilde{S}_{t-1}^m(1+\overline{r}_{t-1}^S),\forall t=1,...,T,\forall m=1...,M\\ \frac{\widetilde{S}_{t}^m}{S_0}\geq \frac{\widetilde{S}_{t-1}^m}{S_0}(1+\underline{r}_{t-1}^S)\Rightarrow \widetilde{S}_{t}^m\geq \widetilde{S}_{t-1}^m(1+\underline{r}_{t-1}^S),\forall t=1,...,T,\forall m=1...,M \end{matrix}\right.$
para $m=1,...,M$ la cesta de activos. Así, podemos estimar $\underline{S}_t^m$ y $\overline{S}_t^m$ precisamente por esas condiciones. En concreto, extraemos muestras de series temporales de precios de $m$ activos, es decir, a partir de series temporales de log-rendimientos, y bajo una condición de invarianza de las propiedades estadísticas de las muestras (y, por tanto, de los parámetros de media y varianza) debida a la estacionariedad de segundo orden de los procesos relacionados con las series temporales individuales, procedemos a estimar sus respectivas medias muestrales y desviaciones típicas. Esta condición, obviamente, se basa en los supuestos de normalidad e independencia de los rendimientos logarítmicos que se aplican a todas las series individuales. (Estamos en un entorno Black and Scholes). Luego dice que tenemos que considerar la correlación entre los activos y para ello tenemos que considerar la correlación entre los rendimientos de los activos. Así que utilizaremos la matriz de covarianza de los rendimientos de un solo periodo. Por lo tanto consideramos, uno por uno, todos los posibles pares de activos, y para cualquier $j$ -a realización de rendimientos de activos (para $j=1,...,n$ y $n$ el tamaño de la muestra) calcularemos la suma de los productos cruzados de las desviaciones para completar la matriz de covarianzas. También sabemos que $\sum$ es simétrica y definida positiva. Bien.
En este punto, el autor introduce la descomposición de Cholesky. También se puede ver aquí (pag. 31-33).
Mi pregunta es: ¿por qué la descomposición Cholesky? ¿Con qué fin?
Gracias de antemano sólo por leer.