Me han dicho que en el aprendizaje de máquina es común para calcular la descomposición en valores singulares de matrices para tirar toda la información en la matriz, excepto la que corresponda, es decir, la $k$ mayores valores singulares para algunos razonable $k$; además, en la práctica sucede que los valores singulares de decaer rápidamente y para todos, pero la $k$ más grande de los valores singulares que contienen muy poca información de todos modos.
¿Qué tipo de distribución en matrices aleatorias que tiene este tipo de distribución de los valores singulares?
Por ejemplo, la clásica resultados (Teoremas 5.31 y 5.32) implica que para un $N \times n$ matriz ($N \ge n$) cuyas entradas están, por decir, yo.yo.d. Gaussiano con cero la media y la varianza la unidad, el mayor valor singular es de alrededor de $\sqrt{N} + \sqrt{n}$, con alta probabilidad y el menor valor singular es de alrededor de $\sqrt{N} - \sqrt{n}$, con alta probabilidad, en particular, para $N \gg n$ todos los valores propios son bastante similares. Esto es muy diferente de la distribución de la anterior, de modo que parece razonable inferir que las matrices de personas se encuentran en la máquina de aprendizaje no se comportan como lo tengo yo.yo.d. entradas.
Probablemente la independencia hipótesis es la menos razonable - por ejemplo, en una incidencia de la matriz que describe los usuarios de Netflix han visto que las películas, uno espera mucho de correlaciones entre las películas similares, así como similares entre los usuarios; es decir, uno espera que la incidencia de la matriz a ser bien aproximada por una de bajo rango de la matriz (que es precisamente lo que estamos haciendo anterior). Supongo que uno también espera que la ley de potencia (log-Gaussiano?) distribuciones de, por ejemplo, tanto la estadística de cuántas películas de usuarios han visto y cuántos usuarios han visto las películas. Tienen modelos aleatorios con este tipo de comportamiento ha sido estudiado, y hacer sus singulares valores se comportan como se espera?