La pregunta es bastante simple: para una matriz $\mathbf{X}$ de tamaño $N \times p$ con entradas reales, ¿cuándo es invertible $\mathbf{X}^{T}\mathbf{X}+\lambda\mathbf{I}$ (donde $\mathbf{I}$ es la matriz identidad de tamaño $p \times p$ y $\lambda > 0$)?
Esto surge en la regresión de ridge. En Elementos del Aprendizaje Estadístico (Hastie et al.),
[La ecuación] agrega una constante positiva a la diagonal de $\mathbf{X}^{T}\mathbf{X}$ antes de la inversión. Esto hace que el problema sea no singular, incluso si $\mathbf{X}^{T}\mathbf{X}$ no es de rango completo.
Sé que $\mathbf{X}^{T}\mathbf{X}$ es invertible si y solo si es de rango completo si y solo si $\mathbf{X}$ es de rango completo de columnas. La explicación es bastante intuitiva, ¿pero cómo lo pruebo?