31 votos

Es un lineal tranformation sobre o uno-a-uno?

La definición de uno-a-uno era bastante recta hacia adelante. Si los vectores son lin.indep la transformación sería uno-a-uno. Pero podría también estar en?

La definición de a era un poco más abstracto. Sería un cero de la fila en la reducción de forma escalonada tiene ningún efecto sobre este? Yo supuse que porque tiene un par de variables libres sería, pero que cero conjunto de filas que me fuera un poco. Diga si la matriz es de 4 por 5. Con dos variables libres. Y el cero de la fila en forma escalonada.

(Lo siento por no publicar la matriz dada, sino que es específica. Y yo no quiero llegar a ser una prohibición de la uni para pedir en línea. La tarea es determinar la en/uno-a-uno de matrices)

Voy a comprobar de nuevo después de la clase y de la actualización de la pregunta de si hay más información es deseable.

Actualización

Las definiciones que aparecen en el libro es este; En: $T: \mathbb R^n \to \mathbb R^m $ se dice en $\mathbb R^m $ si cada b en $\mathbb R^m $ es la imagen de al menos una x en $\mathbb R^n $

Uno a uno: $T: \mathbb R^n \to \mathbb R^m $ es uno-a-uno $\mathbb R^m $ si cada b en $\mathbb R^m $ es la imagen de más de un x $\mathbb R^n $

Y luego, hay otro teorema que establece que una transformación lineal es uno-a-uno iff la ecuación T(x) = 0 tiene solamente la solución trivial.

Que no dice nada acerca de en.

Luego, hay que ser confundido acerca de en: Deje $T: \mathbb R^n \to \mathbb R^m $ ser una transformación lineal y sea a la matriz estándar para T. Entonces: T maps $T: \mathbb R^n$ a $\mathbb R^m $ fib de las columnas de Un palmo $\mathbb R^m $.

104voto

Lorin Hochstein Puntos 11816

"Uno a uno" y "a" son propiedades de las funciones en general, no sólo de transformaciones lineales.

Definición. Deje $f\colon X\to Y$ ser una función.

  • $f$ es uno a uno si y sólo si para cada a $y\in Y$ existe en la mayoría de uno $x\in X$ tal que $f(x)=y$; equivalentemente, si y sólo si $f(x_1)=f(x_2)$ implica $x_1=x_2$.
  • $f$ a (o a $Y$, si el codominio no es claro por el contexto) si y sólo si para cada a $y\in Y$ hay al menos un $x\in X$ tal que $f(x)=y$.

Esta definición se aplica a transformaciones lineales así, y, en particular, para transformaciones lineales $T\colon \mathbb{R}^n\to\mathbb{R}^m$, y, por extensión, a las matrices, ya que un $m\times n$ matriz $A$ puede ser identificado con la transformación lineal $L_A\colon\mathbb{R}^n\to\mathbb{R}^m$$L_A(\mathbf{x}) = A\mathbf{x}$.

Así, las definiciones son para cualquier tipo de funciones. Pero cuando nuestros conjuntos de $X$ $Y$ tiene más estructura y las funciones no son arbitrarias, sino un tipo especial de funciones, a menudo podemos obtener otras formas de definir una función como uno-a-uno o en los que es más fácil/mejor/más útil o más conceptual/ha aplicaciones interesantes. Este es el caso cuando tenemos una rica estructura como transformaciones lineales y espacios vectoriales.

Uno-a-uno es probablemente el más fácil; esto es debido a que si una función es uno a uno depende sólo de su dominio, y no en su codominio. Por el contrario, si una función está en depende de que tanto en el dominio y el codominio (así, por ejemplo, $f(x)=x^2$ es sobre si pensamos en él como una función de $f\colon\mathbb{R}\to[0,\infty)$, pero no se si lo pensamos como una función de $f\colon\mathbb{R}\to\mathbb{R}$ o $f\colon[2,\infty)\to[0,\infty)$).

Teorema. Deje $T\colon\mathbb{R}^n\to\mathbb{R}^m$ ser una transformación lineal. Los siguientes son equivalentes:

  1. $T$ es uno-a-uno.
  2. $T(\mathbf{x})=\mathbf{0}$ tiene sólo la solución trivial $\mathbf{x}=\mathbf{0}$.
  3. Si $A$ es el estándar de la matriz de $T$, entonces las columnas de a $A$ son linealmente independientes.

Prueba. La equivalencia de (1) y (2) es fundamental en álgebra lineal, así que vamos a tratar de que:

(1)$\Rightarrow$(2): Si $T$ es uno-a-uno, a continuación, para todos los $\mathbf{x}$, ya que el $T(\mathbf{0})=\mathbf{0}$ (lineal), a continuación, $T(\mathbf{x})=\mathbf{0}=T(\mathbf{0})$ implica $\mathbf{x}=\mathbf{0}$; esto demuestra (2).

(2)$\Rightarrow$(1): Supongamos $T(\mathbf{x}_1)=T(\mathbf{x}_2)$. Entonces $$\mathbf{0} = T(\mathbf{x}_1) - T(\mathbf{x}_2) = T(\mathbf{x}_1-\mathbf{x}_2),$$ desde $T$ es lineal; porque estamos suponiendo (2), $T(\mathbf{x}_1-\mathbf{x}_2)=\mathbf{0}$ implica que el $\mathbf{x}_1-\mathbf{x}_2 = \mathbf{0}$, lo $\mathbf{x}_1=\mathbf{x}_2$, lo que demuestra que $T$ es de hecho uno-a-uno.

La clave para la conexión con (3) y, eventualmente, para su confusión) es que al multiplicar una matriz por un vector puede ser visto como una operación en columnas. Si $$A=\left(\begin{array}{cccc} a_{11} & a_{12} & \ldots & a_{1n}\\ a_{21} & a_{22} & \ldots & a_{2n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{m1} & a_{m2} & \ldots & a_{mn} \end{array}\right),$$ luego, deje que las columnas de $A$, $A_1$, $A_2,\ldots,A_n$ ser: $$A_1 = \left(\begin{array}{c}a_{11}\\a_{21}\\ \vdots\\a_{m1}\end{array}\right),\quad A_2 = \left(\begin{array}{c}a_{12}\\a_{22}\\ \vdots\\ a_{m2}\end{array}\right),\quad\ldots,A_n = \left(\begin{array}{c}a_{1n}\\a_{2n}\\ \vdots\\ a_{mn}\end{array}\right).$$ A continuación, tenemos las siguientes: $$A\left(\begin{array}{c}x_1\\x_2\\ \vdots\\x_n\end{array}\right) = x_1 A_1 + a_2 A_2 + \cdots + a_nA_n.$$ Es decir, multiplicando $A$ $\mathbf{x}$ da una combinación lineal de las columnas de a $A$. Esto le da a la conexión directa que tenemos entre las condiciones (1) y (2), y la condición (3).

(2)$\Rightarrow$(3): Para mostrar que las columnas de a $A$ son linealmente independientes, tenemos que mostrar que si $\alpha_1A_1 + \cdots + \alpha_nA_n = \mathbf{0}$,$\alpha_1=\cdots=\alpha_n=0$. Así que supongamos $\alpha_1A_1+\cdots+\alpha_nA_n = \mathbf{0}$. Entonces $$T(\mathbf{\alpha}) = A\mathbf{\alpha} = \alpha_1A_1+\cdots+\alpha_nA_n = \mathbf{0},\qquad\text{where }\mathbf{\alpha}=\left(\begin{array}{c}\alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n\end{array}\right).$$ Porque estamos suponiendo (2), lo que significa que de $T(\mathbf{\alpha}) = \mathbf{0}$ podemos concluir que $\alpha=\mathbf{0}$; por lo tanto, $\alpha_1=\cdots=\alpha_n=0$. Esto demuestra que $A_1,\ldots,A_n$ son linealmente independientes.

(3)$\Rightarrow$(2): Supongamos que las columnas de a $A$ son linealmente independientes, y $$\mathbf{0} = T(\mathbf{x}) = A\mathbf{x}\quad\text{where }\mathbf{x}=\left(\begin{array}{c}a_1\\a_2\\ \vdots\\ a_n\end{array}\right).$$ Esto significa que $a_1A_1 + \cdots a_nA_n = \mathbf{0}$; desde las columnas de a $A$ se supone que es linealmente independiente, llegamos a la conclusión de que $a_1=\cdots=a_n=0$, lo $\mathbf{x}=\mathbf{0}$, lo que demuestra (2). QED

Lo que sobre a? Hay dos cosas aquí. Uno es un teorema similar a la de arriba; el otro es el Rango de-Nulidad Teorema.

Teorema. Deje $T\colon\mathbb{R}^n\to\mathbb{R}^m$ ser una transformación lineal. Los siguientes son equivalentes:

  1. $T$ es sobre.
  2. La ecuación de $T(\mathbf{x})=\mathbf{b}$ tiene soluciones para cada $\mathbf{b}\in\mathbb{R}^m$.
  3. Si $A$ es el estándar de la matriz de $T$, entonces las columnas de a $A$ span $\mathbb{R}^m$. Que es: cada $\mathbf{b}\in\mathbb{R}^m$ es una combinación lineal de las columnas de a $A$.

Prueba. (1)$\Leftrightarrow$(2) es, esencialmente, la definición, sólo se presentan en términos de ecuaciones por el bien de la similitud con el anterior teorema.

(2)$\Rightarrow$(3) Deje $\mathbf{b}\in\mathbb{R}^m$. Entonces por (2) existe una $\mathbf{a}\in\mathbb{R}^n$ tal que $T(\mathbf{a})=\mathbf{b}$. Tenemos: $$\mathbf{b} = T(\mathbf{a}) = A\mathbf{a} = A\left(\begin{array}{c}a_1\\a_2\\ \vdots\\a_n\end{array}\right) = a_1A_1 + a_2A_2 + \cdots + a_nA_n.$$ Es decir, podemos expresar $\mathbf{b}$ como una combinación lineal de las columnas de a $A$. Desde $\mathbf{b}$ es arbitrario, cada vector en $\mathbb{R}^m$ puede ser expresado como una combinación lineal de las columnas de a $A$, por lo que las columnas de a $A$ span $\mathbb{R}^m$; esto demuestra (3).

(3)$\Rightarrow$(2) Supongamos que las columnas de a $A$ span $\mathbb{R}^m$ y deje $\mathbf{b}\in\mathbb{R}^m$. Queremos mostrar que $T(\mathbf{x})=\mathbf{b}$ tiene al menos una solución.

Desde las columnas de a $A$ span $\mathbb{R}^m$, existen escalares $\alpha_1,\ldots,\alpha_n$ tal que $$\mathbf{b} = \alpha_1 A_1 + \cdots + \alpha_n A_n = A\left(\begin{array}{c}\alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n\end{array}\right) = T(\mathbf{\alpha}).$$ Por lo $\mathbf{\alpha})$, donde $$\mathbf{\alpha} = \left(\begin{array}{c}\alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n\end{array}\right),$$ es una solución a $T(\mathbf{x})=\mathbf{b}$. Esto establece (2). QED

Así: "uno-a-uno"-ness está relacionada con independencia lineal; "a"-ness está relacionado con abarcan propiedades. Tenga en cuenta que independencia lineal es una intrínseca de la propiedad (que depende únicamente del conjunto de vectores), mientras que la expansión es una extrínseca propiedades (también depende del espacio que estamos considerando; es contextual). Esto coincide con el hecho de que si una función es uno a uno o no, depende sólo en el dominio, pero si es hacia depende tanto el dominio y el codominio de la función.

Pero existe una profunda conexión entre los dos. Recuerde lo siguiente:

Definición. Deje $A$ $m\times n$ matriz. La nulidad de $A$, $\mathrm{nullity}(A)$, es la dimensión del núcleo de $A$, es decir, el subespacio de $\mathbb{R}^n$ dada por $$\mathrm{ker}(A) = \Bigl\{ \mathbf{x}\in\mathbb{R}^n\Bigm| A\mathbf{x}=\mathbf{0}\Bigr\}.$$ El rango de $A$, $\mathrm{rank}(A)$ es la dimensión de la imagen de $A$; es decir, el subespacio de $\mathbb{R}^m$ dada por \begin{align*} \mathrm{Im}(A) &= \Bigl\{ \mathbf{b}\in\mathbb{R}^m\Bigm| A\mathbf{x}=\mathbf{b}\text{ has at least one solution}\Bigr\}\\ &= \Bigl\{ A(\mathbf{x})\Bigm|\mathbf{x}\in\mathbb{R}^n\Bigr\}. \end{align*}

La conexión profunda entre ellos está dado por la Clasificación de Nulidad Teorema:

Rango-Nulidad Teorema. Deje $A$ $m\times n$ matriz. Entonces $$\mathrm{rank}(A) + \mathrm{nullity}(A) = n.$$

Ahora tenemos dos más equivalencias para uno-a-uno y en:

Teorema. Deje $T\colon\mathbb{R}^n\to\mathbb{R^m}$ ser una transformación lineal. Los siguientes son equivalentes:

  1. $T$ es uno-a-uno.
  2. *La ecuación de $T(\mathbf{x})=\mathbf{0}$ tiene sólo la solución trivial $\mathbf{x}=\mathbf{0}$.
  3. Si $A$ es el estándar de la matriz de $T$, entonces las columnas de a $A$ son linealmente independientes.
  4. $\mathrm{ker}(A) = \{\mathbf{0}\}$.
  5. $\mathrm{nullity}(A) = 0$.
  6. $\mathrm{rank}(A) = n$.

Prueba. La equivalencia de (4) y (5) de la siguiente manera porque sólo el subespacio trivial tiene dimensión $0$; la equivalencia de (4) y (2) de la siguiente manera por la definición del núcleo. La equivalencia de (5) y (6) de la siguiente manera a partir de la Clasificación de Nulidad Teorema, ya que $n = \mathrm{nullity}(A)+\mathrm{rank}(A)$, lo $\mathrm{nullity}(A) = 0$ si y sólo si $\mathrm{rank}(A) = n$. Puesto que ya sabemos (1), (2) y (3) son equivalentes, el resultado de la siguiente manera. QED

Teorema. Deje $T\colon\mathbb{R}^n\to\mathbb{R}^m$ ser una transformación lineal. Los siguientes son equivalentes:

  1. $T$ es sobre.
  2. La ecuación de $T(\mathbf{x})=\mathbf{b}$ tiene soluciones para cada $\mathbf{b}\in\mathbb{R}^m$.
  3. Si $A$ es el estándar de la matriz de $T$, entonces las columnas de a $A$ span $\mathbb{R}^m$. Que es: cada $\mathbf{b}\in\mathbb{R}^m$ es una combinación lineal de las columnas de a $A$.
  4. $\mathrm{Im}(A) = \mathbb{R}^m$.
  5. $\mathrm{rank}(A) = m$.
  6. $\mathrm{nullity}(A) = n-m$.

Prueba. Ya sabemos que (1), (2) y (3) son equivalentes. La equivalencia de (4) y (2) de la siguiente manera según la definición de la imagen. La equivalencia de (4) y (5) de la siguiente manera debido a que el único subespacio de $\mathbb{R}^m$ que tiene dimensión $m$ es todo el espacio. Finalmente, la equivalencia de (5) y (6) se sigue de que el rango de nulidad teorema: desde $n = \mathrm{rank}(A)+\mathrm{nullity}(A)$,$\mathrm{nullity}(A) = n - \mathrm{rank}(A)$. Por lo que el rango es igual a $m$ si y sólo si la nulidad es igual a $n-m$. QED

Así que ahora usted tiene un montón de maneras de comprobar si una matriz es uno-a-uno, y de comprobar si una matriz es en. Ninguno de ellos es "mejor" que los demás: para algunas matrices, uno será más fácil comprobar, para otras matrices, puede ser uno diferente que es fácil de comprobar. También, el rango de una matriz está estrechamente relacionado con la fila-forma escalonada, de modo que podría ayudar también.

Tenga en cuenta algunas cosas: en general, el "sobre" y "uno a uno" son independientes uno del otro. Usted puede tener una matriz a, pero no uno-a-uno; o ser uno-a-uno, pero no a; o ambos; o de no ser. La Clasificación de Nulidad Teorema de no poner algunas restricciones: si $A$$m\times n$$m\lt n$, entonces la matriz no puede ser en (debido a $1\leq\mathrm{rank}(A)\leq m$, por lo que si $\mathrm{rank}(A)+\mathrm{nullity}(A) = n$, debemos tener $\mathrm{nullity}(A)\gt 0$); doblemente, si $m\gt n$ $A$ no puede ser en. En particular, la única de las matrices que pueden ser tanto de uno-a-uno y a son matrices cuadradas. Por otro lado, usted puede tener un $m\times n$ matriz con $m\lt n$ que está en, o uno que no sobre. Y usted puede tener $m\times n$ matrices con $m\gt n$ que son uno-a-uno, y de las matrices que son no uno-a-uno.

18voto

user71479 Puntos 56

deje $T(x)=Ax$ ser una transformación lineal.

$T(x)$ es uno-a-uno si las columnas de a $A$ son linealmente independientes.

$T(x)$ es en si cada fila de $A$ tiene un pivote.

1voto

AlexMax Puntos 366

Una función es en si su codominio es igual a su imagen, que es, $f: X \to Y$ a si $f(X) = Y$.

Suponiendo que se trabaja con el real matrices, una matriz de $A$ es generalmente visto como la asignación de vectores de$\mathbb R^n$$\mathbb R^m$. Usted quiere demostrar que para todos los $\vec y \in \mathbb R^m$ existe un $\vec x \in \mathbb R^n$ tal que $A \vec x = \vec y$. En algunos casos esto no es posible, dependiendo $m$$n$. ¿Cómo se $m$ $n$ se relacionan con el tamaño de la matriz?

Una forma de comprobar que una matriz a es para comprobar si usted puede encontrar los vectores $\vec v_1, \vec v_2, \dots, \vec v_m$ tal que $A\vec v_i = \vec e_i$ $i = 1, 2, \dots, m$ donde $\vec e_1, \vec e_2, \dots, \vec e_m$ es el estándar en $\mathbb R^m$ (żpor qué?). Se puede utilizar la forma escalonada para esto? ¿Usted realmente necesita para obtener el estándar de base o de algún otro conjunto de vectores ok?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X