4 votos

Dos subespacios de$\Bbb R^n$

Si $A$ $B$ son subespacios de $\mathbb R^n$. Es posible encontrar una base para $\mathbb R^n$ que contiene una base de $A$$B$?

Se ha sugerido a mí la definición de una base para $A\cap B$ y, a continuación, utilizar para definir basises $A$$B$. Me gustaría entender por qué este enfoque es adoptado y cómo este se utiliza para contestar a la pregunta de arriba. Por favor, no omitir ningún detalle, quiero entender completamente este método.

El principal nudo de mi pregunta es que no sé muy bien cómo responder a esta pregunta. Yo tampoco entiendo por qué los de arriba se sugirió.

Yo no solo quiero la respuesta como esta es de un mínimo de uso para mí. Quiero entender cómo la respuesta fue derivada y por qué el camino particular que se haya elegido. Quiero ser capaz de aplicar los conocimientos en casos similares

2voto

es ciertamente posible...y el enfoque sugerido es el camino a seguir. Básicamente, usted tiene un subespacio \begin{equation} A+B=\{a+b:a \in A \text{ and } b \in B\}\end{equation} conocida como la suma de de $A$$B$; este es el menor subespacio que contiene a$A$$B$. También, el subespacio $A \cap B$ es un subespacio. Por lo que podemos definir, o encontrar una base para $A \cap B$ - vamos a permitir que una se $\alpha$. Ahora $\alpha$ es linealmente independiente, y cualquier conjunto linealmente independiente de vectores puede ser extendida a ser una base para que podamos extender $\alpha$ mediante la adición de un conjunto de vectores $\beta$, de modo que $\alpha \cup \beta$ es una base para $A$. Del mismo modo se puede extender $\alpha$$\alpha \cup \gamma$, para ser una base para $B$.

Así que, a continuación, $\alpha \cup \beta \cup \gamma$ es una base para $A+B$ - esto es lo que quería derecho - ahora solo debemos extenderlo a ser una base para $\mathbb{R}^n$. Así que, de nuevo desde $\alpha \cup \beta \cup \gamma$ es linealmente independiente podemos extender a ser una base para $\mathbb{R}^n$, dicen agregando el conjunto de vectores $\delta$. A continuación, la base $\alpha \cup \beta \cup \gamma \cup \delta$ es una base para $\mathbb{R}^n$ que contiene una base de $A$$B$.

¿Por qué utilizar este método - bien se inicia con la definición de exactamente lo que usted desea - una base para $A$$B$, y luego extenderlo a ser una base para $\mathbb{R}^n$ - hay un teorema que garantiza que cualquier conjunto linealmente independiente puede ser extendida a ser una base para algún vector de espacio para que podamos hacer uso de ese teorema si lo primero que nos encontramos una pequeña base. Es mucho más difícil/tal vez no sea posible si primero tenía que encontrar una base general para $\mathbb{R}^n$ y luego trabajar hacia atrás para encontrar más pequeñas bases para los subespacios. Por favor, hágamelo saber si esto no es claro para usted...


Se ha preguntado en los comentarios de abajo que aclaro que $\alpha \cup \beta \cup \gamma$ es de hecho una base. ok: En primer lugar, independencia lineal: por construcción $\alpha \cup \beta$ (1) y $\alpha \cup \gamma$ (2) son linealmente independientes conjuntos. Ahora, también por la construcción, span($\beta)$ es el complemento de a$A \cap B$$A$, y el intervalo($\gamma)$ es el complemento de a$A \cap B$$B$, por lo que ninguno de los vectores en $\beta$ es en el lapso$(\gamma)$. Ahora, si usted tiene un linealmente independientes como, por ejemplo,$\gamma$, y se añade un vector $v$ NO en el lapso de un conjunto para formar un nuevo conjunto $\gamma \cup \{v\}$, $\gamma \cup \{v\}$ es linealmente independiente. Es por eso que los vectores en $\beta \cup \gamma$ (3) son linealmente independientes. La combinación de la (1), (2) y (3) anteriores, tenemos que $\alpha \cup \beta \cup \gamma$ es un conjunto linealmente independiente.

Para la segunda parte, debemos probar que todos los vectores de a+B en el intervalo de $\alpha \cup \beta \cup \gamma$ - esto se puede hacer sólo por escribir cualquier vector $a+b \in A+B$ como: expresar $a$ como una combinación lineal de los vectores en $\alpha \cup \beta$ $b$ como una combinación lineal de los vectores en $\alpha \cup \gamma$ y añadir las dos expresiones.

2voto

egreg Puntos 64348

Deje $\{v_1,\dots,v_k\}$ ser una base de $A\cap B$; usted puede encontrar los vectores $a_1,\dots,a_r\in A$ tal que $\{v_1,\dots,v_k,a_1,\dots,a_r\}$ es una base para $A$; del mismo modo, hay $b_1,\dots,b_s\in B$ tal que $\{v_1,\dots,v_k,b_1,\dots,b_s\}$ es una base para $B$.

Su tarea es demostrar que $$ \{v_1,\dots,v_k,a_1,\dots,a_r,b_1,\dots,b_s\} $$ es linealmente independiente. Si no puede ser una base para $\mathbb{R}^n$, sólo extender a una base.

Tenga en cuenta que este ha Grassmann la fórmula como consecuencia: $$ \dim (a+B)=\dim a+\dim B-\dim(A\cap B) $$


He aquí cómo afrontar la independencia lineal. Supongamos que $$ \gamma_1v_1+\dots+\gamma_kv_k+ \alpha_1a_1+\dots+\alpha_ra_r+ \beta_1b_1+\dots+\beta_sb_s=0. $$ A continuación, podemos considerar $$ v=\gamma_1v_1+\dots+\gamma_kv_k+ \alpha_1a_1+\dots+\alpha_ra_r=-(\beta_1b_1+\dots+\beta_sb_s). $$ Por hipótesis, $v\in A\cap B$, por lo que tenemos $$ v=\delta_1v_1+\dots+\delta_kv_k $$ y así $$ (\gamma_1-\delta_1)v_1+\dots+(\gamma_k-\delta_k)v_k+ \alpha_1a_1+\dots+\alpha_ra_r=0 $$ lo que implica \begin{gather} \gamma_1-\delta_1=0,\dots,\gamma_k-\delta_k=0,\\ \alpha_1=0,\dots,\alpha_r=0 \end{reunir} por la independencia lineal de $\{v_1,\dots,v_k,a_1,\dots,a_r\}$.

Por lo tanto $$ \gamma_1v_1+\dots+\gamma_kv_k=-(\beta_1b_1+\dots+\beta_sb_s) $$ y, por la independencia lineal de $\{v_1,\dots,v_k,b_1,\dots,b_s\}$, obtenemos \begin{gather} \gamma_1=0,\dots,\gamma_k=0\\ \beta_1=0,\dots,\beta_s=0. \end{reunir}

0voto

John Hughes Puntos 27780

He aquí un enfoque general para ciertas clases de problemas de base en lo finito-dimensional espacios (por ejemplo, $R^n$). Trabaja con dos hechos principales.

yo. Si $S = \{ v_1, \ldots, v_k\}$ es un dependiente de un conjunto de vectores, entonces (a) al menos uno de los $v$s decir $v_i$, se puede escribir como una combinación lineal de los otros, y (b) El intervalo de $S$ y en el período de $S\ \{v_i\}$ (es decir, $S$ $v_i$ eliminado) son los mismos. En breve: siempre se puede reducir a un conjunto dependiente, sin reducir su extensión.

ii. Si $S = \{ v_1, \ldots, v_k\}$ es independiente, y $u \notin span(S)$, $S' = \{ u, v_1, \ldots, v_k\}$ también es independiente, y $span(S)$ es una adecuada subconjunto de $span(S)$.

Estos dos principios son los que @Christiaan ha utilizado en su respuesta, más o menos. Te aconsejo una cosa más: dibujar una imagen. Aquí, dibuje un diagrama de Venn de $A$, $B$, $A \cap B$, y donde la base de los elementos que buscas tiene que caer. A continuación, puede empezar a trabajar.

También les aconsejo pensando en 2 de los casos en un espacio de 3 dimensiones: (i) $A$ es una línea y $B$ un avión (tanto por el origen). ¿Cuál es la intersección? ¿Cuál es la base? ¿Qué pasa si el avión $B$ contiene la línea de $A$? (ii) $A$ $B$ son ambos planos, pero se intersecan en una línea. ¿Cuál es la intersección? ¿Cuál es la base? ¿Y qué pasaría si $A$ $B$ fueron en el mismo plano?

A menudo se puede hacer este tipo de razonamiento con ejemplos para este tipo de problemas, porque realmente hay sólo un par de posibilidades: para subespacios lineales, la única intersecciones serán otros subespacios lineales de los mismos o menores dimensiones. Usted no tiene que preocuparse acerca de los dos planos se intersectan en un círculo, etc.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X