Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js

7 votos

¿Cómo elegir los libros?

ZCA de blanqueamiento puede utilizar la regularización, como en

˜X=L(D+ϵ)1L1X,

donde LDL es un eigendecomposition de la muestra de la matriz de covarianza. Lo que es una buena opción para el parámetro de regularización ϵ?

Supongo que uno podría hacer por separado unregularized ZCA de blanqueamiento en la entrada-salida de datos X:

~X=LD1L1X

y, a continuación, elija ϵ que minimiza la diferencia entre el cabo-cabo blanqueado de datos y la entrada-salida de datos blanqueados mediante la regularización de la ZCA desarrollado utilizando los datos de entrenamiento:

˜Y(ϵ)=L(D+ϵ)1L1X

ϵ=argmin

Me pregunto, sin embargo, si hay más fácil o más basada en los principios de los enfoques para la elección de \epsilon o de la regularización de la PCA/ZCA en general.

6voto

Ludwi Puntos 188

Si los datos Gaussiana fue distribuido con una media de 0 y desconocido covarianza \Sigma y ponemos un inverso de Wishart antes en \Sigma, \begin{align} \Sigma &\sim \mathcal{W^{-1}}(\Psi, \nu), \\ x &\sim \mathcal{N}(0, \Sigma), \end{align} la posterior expectativa de \Sigma sería \frac{XX^\top + \Psi}{n + \nu - p - 1}, donde n es el número de puntos de datos y p es la dimensionalidad de los datos. La elección de \Psi = I\nu = p + 1, por ejemplo, podemos obtener \frac{XX^\top + I}{n} = C + \frac{1}{n}I = L\left(D + \frac{1}{n}I\right)L^\top, donde C = XX^\top/n. Una buena opción para\epsilon, por lo que puede ser 1/n.

Usted podría ir un paso más allá y estimar correctamente la covarianza utilizando una normal inverso de Wishart antes, es decir, teniendo la incertidumbre de la media en cuenta también. Derivaciones para la parte posterior se puede encontrar en (Murphy, 2007).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X