19 votos

Es esta matriz obviamente positiva definida?

Considere la matriz $A$ cuyos elementos son de $A_{ij} = a^{|i-j|}$ $-1<a<1$ $i,j=1,\dots,n$

por ejemplo, para $n=4$ la matriz es

$$A = \left[ \begin{matrix} 1 & a & a^2 & a^3 \\ a & 1 & a & a^2 \\ a^2 & a & 1 & a \\ a^3 & a^2 & a & 1 \end{de la matriz} \right]$$

Es esta matriz siempre positiva definida? Si es así, ¿cuál es la manera más simple de ver eso?

Tengo la fuerte sospecha de que la matriz es positiva definida para todos los $n$$a$, pero estoy teniendo problemas para subir con una prueba.

Crédito Extra: Los autovalores parece mentira dentro de un intervalo de $[\lambda_{\rm min}, \lambda_{\rm max}]$ que es una función de $a$, pero no de $n$. Por ejemplo, para $a=1/2$ todos los autovalores de la mentira en $[1/3, 3]$.

Es cierto para general $a$, los valores propios de la mentira en $[\lambda(a)^{-1}, \lambda(a)]$? Si es así, ¿cuál es $\lambda(a)$?

También, los vectores propios parecen tener una particular forma regular. En particular, se ven como que podría ser expresado como simples combinaciones de funciones trigonométricas. Es este el caso?

18voto

Rob Dickerson Puntos 758

Es positivo-definida para todos los $n$.

La manera en que yo lo veo es por señalar que se ha descomposición de Cholesky $$A = LL^\top$$ donde $$L = \begin{bmatrix} 1 & & & \\a & \sqrt{1-a^2} & & &\\a^2 & a\sqrt{1-a^2} & \sqrt{1-a^2} & &\\a^3 & a^2\sqrt{1-a^2} & a\sqrt{1-a^2} & \sqrt{1-a^2} &\\\vdots & \vdots & \vdots & \vdots & \ddots\end{bmatrix}.$$

No es difícil (aunque no sea "obvio", tal vez) a ver que esta descomposición es correcta: el producto escalar de una fila con el mismo telescopios a 1, y de dos filas diferentes, a la alimentación adecuada de $a$.

11voto

Did Puntos 1

Es esta matriz siempre positiva definida? Si es así, ¿cuál es la manera más simple de ver eso?

Sí. Una manera sencilla es de notar que esto es la matriz de covarianza de cualquier proceso de $(x_n)$ tal que, para cada entero $n$, $x_n=ax_{n-1}+z_n$ donde $(z_n)$ es yo.yo.d. con la varianza $1-a^2$. Una formulación alternativa es que, para cada $n$, $$ x_n=\sum_{k\geqslant0}a^kz_{n-k}. $$ Cuando uno calcula la covarianza de $x_n$ $x_{n+m}$ cada producto $z_iz_j$ $i\ne j$ desaparece, porque el $z_k$ son independientes y cada producto $z_i^2$ rendimientos $1-a^2$ por lo tanto $$ \mathrm{Cov}(x_n,x_{n+m})=\sum_{k,\ell\geqslant0}(1-a^2)^{k+\ell}\cdot[n-k=n+m-\ell], $$ es decir, $$ \mathrm{Cov}(x_n,x_{n+m})=(1-a^2)\sum_{k,\ell\geqslant0}a^{k+\ell}\cdot[\ell=m+k]=(1-a^2)\sum_{k\geqslant0}a^{m+2k}=a^m. $$ En otras palabras, las infinitas dimensiones de los vectores $\mathbb x=(x_n)$ $\mathbb z=(z_n)$ son tales que $\mathbb x=\mathbb T\cdot \mathbb z$ donde $\mathbb T$ es la más baja triangular de infinitas dimensiones de la matriz definida por $T_{n,n+k}=0$ si $k\geqslant1$ $T_{n,n-k}=a^k$ si $k\geqslant0$. Las infinitas dimensiones de la matriz $\mathbb A$ cual cada una de las finito de dimensiones de la matriz $A$ es una submatriz, es $$ \mathbb A=\mathrm{Cov}(\mathbb T\mathbb z,\mathbb T\mathbb z)=\mathbb T\cdot\mathrm{Cov}(\mathbb z,\mathbb z)\cdot \mathbb T^*=\mathbb T\cdot \mathbb T^*. $$ En particular, para cada vector de $y$ del tamaño de la $n$, extendiendo $y$ a un infinito dimensional de vectores $\mathbb y$ mediante la adición de ceros, uno se $$ y^*\cdot A\cdot y=\mathbb y^*\cdot \mathbb A\cdot \mathbb y=\mathbb y^*\cdot \mathbb T\cdot \mathbb T^*\cdot \mathbb y=\|\mathbb T^*\cdot \mathbb s\|^2\geqslant0. $$

7voto

Andrew Puntos 140

(Demasiado largo para un comentario.)

Lo que tenemos es en realidad una familia de bien estudiado matrices: la Kac-Murdock-Szegő (KMS) de las matrices. Se generan, por ejemplo, el comando de MATLAB gallery('kms',n,a).

En Grenander y Szegő, y en William Trinchera de la nota, hay expresiones explícitas para los autovalores de los KMS matriz $\mathrm{KMS}_{i,j}(a)=a^{|i-j|}$:

$$\lambda_k=\frac{1-a^2}{1+a^2-2a\chi_k}$$

where the $\chi_k$ are the $n$ roots of the polynomial

$$U_n(x)-2a U_{n-1}(x)+a^2 U_{n-2}(x)$$

and $U_n(x)$ is the Chebyshev polynomial of the second kind. (I have observed that Chebyshev polynomials do tend to figure prominently in the theory of Toeplitz matrices.) It is also noted in those references that the inverse of a KMS matrix is tridiagonal.

The $\chi_k$ are shown to satisfy the inequality $-1 < \chi_k < 1$ (they're cosines of angles); it can then be shown from this that the $\lambda_k$ son siempre positivas.

7voto

Beni Bogosel Puntos 15173

Comprobaciones rápidas en Maple muestran que para el primer caso, el determinante de a$A$$(1-a^2)^{n-1}$, lo cual es positivo. Creo que esto puede ser probado de forma recursiva. Esto demuestra que la diagonal de submatrices tiene determinante positivo, lo que significa que $A$ es positiva definida..

2voto

Joel Puntos 101

Los círculos de Gershgorin darle un límite superior en el autovalores que es $1+a +a^2+\dots a^{n-1}$.

El uso de la descomposición de Cholesky user7530 siempre uno encuentra la inversa de a $A$ en forma cerrada $$ A^{-1} = \begin{bmatrix} \frac{1}{1-a^2} & -\frac{a}{1-a^2} & 0 & \dots \\ -\frac{a}{1-a^2} & \frac{1}{1-a^2} & -\frac{a}{1-a^2} & \ddots\\ 0 & \ddots & \ddots & \ddots \end{bmatrix}. $$ Ahora, Gershgorin discos darle un límite superior en el mayor autovalor de a $A^{-1}$ y, por tanto, un límite inferior en el menor autovalor.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X