33 votos

Intersección de los granos y dependencia lineal de los funcionales

Estoy tratando de probar el siguiente. He visto que se hace alusión en otros lugares de internet (este sitio incluido), pero sin pruebas.

Deje $L,L_1\ldots L_n$ ser funcionales lineales en un espacio vectorial $X$. Si $\cap_{i=1}^n ker(L_i) \subset ker(L)$ existe $t_i$ $i=1\ldots n \in \mathbb{R}$ tal que $L = \sum_{i=1}^n t_i L_i$.

En otras palabras, si la intersección de los núcleos de funcionales lineales está contenida en el núcleo de otro lineal funcional, a continuación, que son linealmente dependientes.

Relacionado con:

Intersección de los núcleos y de dependencia lineal lineal mapas

Dependencia lineal de funcionales lineales

24voto

MrTuttle Puntos 1116

Deje $K$ el valor del campo escalar. Considere la posibilidad de $F\colon X \to K^n$ dada por

$$F(x) = \begin{pmatrix}L_1(x)\\ L_2(x)\\ \vdots \\ L_n(x)\end{pmatrix}.$$

Deje $R = \operatorname{im} F \subset K^n$. Tenemos un inducida por isomorfismo $$\tilde{F}\colon X/\ker F \xrightarrow{\sim} R.$$

Desde $\bigcap\limits_{k=1}^n \ker L_k = \ker F \subset \ker L$, tenemos un inducido de forma lineal $\tilde{L} \colon X/\ker F \to K$, y se puede tirar de vuelta a $R$$\hat{L} := \tilde{L} \circ \tilde{F}^{-1}$. Podemos extender $\hat{L}$ a todos los de $K^n$ (extender una base de $R$ a una base de $K^n$, y elegir valores arbitrarios, por ejemplo,$0$, sobre la base de vectores no en $R$). Por lo tanto hay una forma lineal $\lambda \colon K^n \to K$ con

$$\lambda \circ F = \lambda\lvert_R \circ F = \hat{L}\circ F = \tilde{L}\circ \tilde{F}^{-1}\circ F = \tilde{L} \circ \pi = L,$$

donde $\pi \colon X \to X/\ker F$ es la proyección canónica.

Pero cada forma lineal $K^n\to K$ se puede escribir como una combinación lineal de los componentes de las proyecciones, por lo que hay $c_1,\dotsc, c_n$ con

$$\lambda\begin{pmatrix}u_1\\u_2 \\ \vdots \\ u_n \end{pmatrix} = \sum_{k=1}^n c_k\cdot u_k,$$

y eso significa que

$$L(x) = \lambda(F(x)) = \sum_{k=1}^n c_k\cdot L_k(x)$$

para todos los $x\in X$, o

$$L = \sum_{k=1}^n c_k\cdot L_k.$$

2voto

user111848 Puntos 23

Tengo una prueba en el caso de que $X$ es reflexiva.

Supongamos que $L$ no es una combinación lineal de las $L_i$'s. Deje $C = \{\sum_{i=1}^n t_i L_i : t_i \in \mathbb{R}\} \subseteq X^*$. A continuación, $C$ es un cerrado subconjunto convexo y $C \cap \{L\} = \emptyset$ por supuesto. Así que por geométricas de Hahn-Banach, existe $\xi \in X^{**}$ tal que $\xi(C) \subseteq (-\infty,\alpha)$$\xi(L) > \alpha$. Desde $C$ es un subespacio, en realidad tenemos $\xi(C) = \{0\}$$\alpha > 0$. Suponiendo que $X$ es reflexiva, a continuación, $\xi$ corresponde a la evaluación a algunos $x \in X$. Esto demuestra que $L_i(x) = 0$ todos los $i = 1, \ldots, n$ pero $L(x) > 0$. Esto contradice $\bigcap_{i=1}^n \ker L_i \subseteq \ker L$.

No estoy seguro de si esto se extiende al caso en que $X$ no es reflexiva, sin embargo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X