Supongamos que tengo el siguiente modelo
$$y_i=f(x_i,\theta)+\varepsilon_i$$
where $y_i\in \mathbb{R}^K$ , $x_i$ is a vector of explanatory variables, $\theta$ is the parameters of non-linear function $f$ and $\varepsilon_i\sim N(0,\Sigma)$, where $\Sigma$ naturally is $K\times K$ matrix.
The goal is the usual to estimate $\theta$ and $\Sigma$. The obvious choice is maximum likelihood method. Log-likelihood for this model (assuming we have a sample $(y_i,x_i),i=1,...,n$) looks like
$$l(\theta,\Sigma)=-\frac{n}{2}\log(2\pi)-\frac{n}{2} \log\det\Sigma-\sum_{i=1}^n(y_i-f(x_i,\theta))'\Sigma^{-1}(y-f(x_i,\theta)))$$
Now this seems simple, the log-likelihood is specified, put in data, and use some algorithm for non-linear optimisation. The problem is how to ensure that $\Sigma$ is positive definite. Using for example optim
in R (or any other non-linear optimisation algorithm) will not guarantee me that $\Sigma$ is positive definite.
So the question is how to ensure that $\Sigma$ stays positive definite? I see two possible solutions:
Reparametrise $\Sigma$ as $RR'$ where $R$ is upper-triangular or symmetric matrix. Then $\Sigma$ will always be positive-definite and $R$ puede ser sin restricciones.
Perfil de uso de la probabilidad. Derivar las fórmulas para$\hat\theta(\Sigma)$$\hat{\Sigma}(\theta)$. Empezar con algo de $\theta_0$ e iterar $\hat{\Sigma}_j=\hat\Sigma(\hat\theta_{j-1})$, $\hat{\theta}_j=\hat\theta(\hat\Sigma_{j-1})$ hasta la convergencia.
¿Hay alguna otra manera y lo que acerca de estos 2 métodos, van a trabajar, son estándar? Esto parece bastante estándar problema, pero una búsqueda rápida no me dan los punteros. Sé que la estimación Bayesiana también sería posible, pero por el momento no quisiera participar en ella.