79 votos

¿Qué son exactamente eigen-las cosas?

Wikipedia define un autovector como este:

Un vector propio de una matriz cuadrada es un no-cero vector que, cuando se multiplica por la matriz, se obtiene un vector que difiere de la original del vector en la mayoría por una multiplicación escalar.

Así que, básicamente, en laico idioma: Un autovector es un vector que, cuando se multiplica por una matriz cuadrada, se obtiene el mismo vector o el mismo vector se multiplica por un escalar.

Hay un montón de términos que están relacionados con este, como subespacios propios y valores propios y eigenbases y tal, que yo no entiendo muy bien, de hecho, no entiendo en absoluto.

Alguien puede dar una explicación de la conexión de estos términos? Lo que está claro lo que son y por qué están relacionados.

100voto

Hagen von Eitzen Puntos 171160

Los vectores propios son aquellos vectores que presentan especialmente simple comportamiento bajo una transformación lineal: a grandes rasgos, no doblar y girar, simplemente crecer (o decrecer) de longitud (aunque una interpretación diferente de crecimiento/contracción puede aplicar si el campo de tierra no es $\mathbb R$). Si es posible expresar cualquier otro vector como una combinación lineal de los vectores propios (de preferencia si se puede, de hecho, encontrar una base hecha de vectores propios), a continuación, la aplicación de la - de lo contrario complicado - transformación lineal de repente se convierte en fácil, porque con respecto a una base de vectores propios de la transformación lineal está dado simplemente por una matriz diagonal.

Especialmente cuando uno quiere investigar a los poderes superiores de una transformación lineal, esto es, prácticamente, sólo es posible para los vectores propios: Si $Av=\lambda v$,$A^nv=\lambda^nv$, e incluso exponenciales convertido en fácil para los vectores propios: $\exp(A)v:=\sum\frac1{n!}A^n v=e^\lambda v$. Por el camino, las funciones exponenciales $x\mapsto e^{cx}$ son vectores propios de una famosa lineal tranformation: la diferenciación, es decir, la asignación de una función de $f$ a su derivado $f'$. Esa es precisamente la razón por la exponetials juegan un papel importante como base de soluciones para ecuaciones diferenciales lineales (o incluso su contraparte discreta, recurrencias lineales como los números de Fibonacci).

Todos los demás terminología se basa en esta idea: Un (distinto de cero) autovector $v$ tal que $Av$ es un múltiplo de a $v$ determina su autovalor $\lambda$ como el factor escalar tal que $Av=\lambda v$. Dado un autovalor $\lambda$, el conjunto de vectores propios con que autovalor es de hecho un subespacio (es decir, sumas y múltiplos de vectores propios con el mismo(!) autovalor son de nuevo eigen), llamado el espacio propio para $\lambda$. Si nos encontramos con una base que consta de los vectores propios, entonces podemos obviamente llaman eigenbasis. Si los vectores de nuestro espacio vectorial no son meras número de tuplas (como en $\mathbb R^3$), pero también son funciones y nuestra transformación lineal es un operador (tales como la diferenciación), es a menudo conveniente llamar a los autovectores funciones propias en su lugar; por ejemplo, $x\mapsto e^{3x}$ es un eigenfunction de la diferenciación operador con autovalor $3$ (debido a que la derivada de es $x\mapsto 3e^{3x}$).

15voto

Bryan Farrell Puntos 31

Tal y como yo lo entiendo, el "eigen" en palabras como autovalor, autovector etc. significa algo así como 'propio', o una mejor traducción en español sería, tal vez, 'características'.

Cada matriz cuadrada tiene algo de especial escalares y vectores asociados con él. Los vectores propios son los vectores que la matriz conserva (hasta la multiplicación escalar). Como usted probablemente sabe, una $n\times n$ matriz actúa como una transformación lineal en un $n$-dimensiones del espacio, decir $F^n$. Un vector y sus múltiplos escalares forma una línea a través del origen en $F^n$, y así usted puede pensar de los vectores propios de la indicación de las líneas a través del origen conservado por la transformación lineal correspondiente a la matriz.

Defn Deje $A$ $n\times n$ matriz sobre un campo $F$. Un vector $v\in F^n$ es un autovector de a $A$ si $Av = \lambda v$ algunos $\lambda$$F$. Un escalar $\lambda\in F$ es un autovalor de a $A$ si $Av = \lambda v$ algunos $v\in F^n$.

Los autovalores son los factores por los cuales estas líneas especiales a través del origen se estira o contrae.

5voto

Eran Medan Puntos 193

El término "eigen" viene del alemán y significa "correcto". Esto significa que los vectores propios y valores propios tienen un estatus especial con respecto a la operador/matriz que usted está estudiando. En este caso, es que esencialmente son invariantes con respecto a las aplicaciones de la operadora/matriz. Después de la aplicación obtiene la misma autovector multiplicado por un factor que factor es el autovalor.

Ya que algunas personas dudan de que "adecuada" es una traducción adecuada en este contexto, voy a tener que saber que "adecuada vector" se utiliza a veces como sinónimo de "vector propio". También ver este y este.

Entonces, yo creo que el significado aquí es realmente la de hacer un especial o peculiar de estado.

1voto

fretty Puntos 7351

Las Matrices pueden ser vistos como lineal mapas en espacios vectoriales...de hecho, si el trabajo de más de un bonito campo como el campo de los números reales, las matrices de dar transformaciones geométricas.

Por ejemplo, la reflexión en la línea de $y=x$ $\mathbb{R}^2$ puede ser simulada por la multiplicación por la matriz:

$\left(\begin{array}[aa]\\ 0 1 \\ 1 0\end{array}\right)$

Ahora está claro que geométricamente hay ciertas simetrías aquí. Por ejemplo, si usted elige cualquier punto en la línea de $y=x$ se envía a sí mismo y, si puede elegir cualquier punto de la línea de $y=-x$ luego se envía a un punto en la dirección opuesta desde el origen.

Esta información es esencialmente lo que los autovalores y autovectores de la anterior matriz de captura. Los vectores propios son los vectores en esas dos líneas y los valores propios son los correspondientes escalar múltiplo del vector que se obtiene después de aplicar la reflexión.

Las cosas en la línea de $y=x$ se envió a sí mismos, es decir,$Av = v$, un escalar varios de $1$.

Las cosas en la línea de $y=-x$ se envía a la negativa de sí mismos, es decir,$Av = -v$, un escalar varios de $-1$.

Por lo tanto esperamos que los dos autovalores $\pm 1$ y dos subespacios propios", $V_1, V_{-1}$ que consta de todos los vectores de autovalores $1$ $-1$ respectivamente.

Estos espacios son exactamente los vectores de la mentira en las líneas de $y=x$ $y=-x$ respectivamente.

Por supuesto, hay maneras de resolver estas cosas usando sólo la matriz, pero espero que usted puede ver un poco de importancia para ellos. Vienen en útil en muchas áreas de las matemáticas.

1voto

John Puntos 36

Pensar que el autovalor $\lambda$ como factor de aumento: Si $|\lambda | < 1,$ tiene una contracción. Si $|\lambda | > 1,$ tiene una dilatación. Si $|\lambda | = 1,$, entonces la transformación se mantiene la longitud del vector, posiblemente revertir su dirección.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X