49 votos

Hahn-Banach a partir de sistemas de ecuaciones lineales

En este documento 1 sobre la historia del análisis funcional, el autor menciona el siguiente ejemplo de un sistema infinito de ecuaciones lineales en un número infinito de variables $c_i = A_{ij} x_j$ :

\begin{align*} \begin{array}{ccccccccc} 1 & = & x_1 & + & x_2 & + & x_3 & + & \dots \\ 1 & = & & & x_2 & + & x_3 & + & \dots \\ 1 & = & & & & & x_3 & + & \dots \\ & \vdots & & & & & & & \ddots \end{array} \a \begin{bmatrix} 1 \\ 1 \\ 1 \\ \vdots \end{bmatrix} = \begin{bmatrix} 1 & 1 & 1 & \dots \\ & 1 & 1 & \dots \\ & & 1 & \dots \\ & & & \ddots \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \end{bmatrix} \fin

como ejemplo de un sistema tal que cualquier truncamiento finito del sistema hasta un $n \times n$ sistema tiene una solución única $x_1 = \dots = x_{n=1} = 0, x_n = 1$ pero para la que el sistema completo no tiene solución.

Este libro 2 tiene el siguiente pasaje sobre sistemas como éste:

En Teorema de Hahn-Banach surgieron de los intentos de resolver infinitos sistemas de ecuaciones lineales... La clave de la resolubilidad es determinar la "compatibilidad" del sistema de ecuaciones. Por ejemplo, el sistema $x + y = 2$ y $x + y = 4$ no pueden resolverse porque requieren cosas contradictorias y, por tanto, son "incompatibles". Los primeros intentos de determinar la compatibilidad para sistemas infinitos de ecuaciones lineales extendieron técnicas conocidas de reducción de determinantes y filas. Se trataba de un análisis clásico: casi resolver el problema en una situación finita y luego tomar un límite. Un defecto fatal de estos enfoques era la necesidad de la convergencia (muy rara) de productos infinitos."

y luego menciona un teorema sobre estos sistemas que motiva Hahn-Banach:

El teorema 7.10.1 muestra que para resolver un cierto sistema de ecuaciones lineales, es necesario y suficiente que se cumpla una condición de tipo continuidad.

Teorema 7.10.1 (El problema funcional): Sea $X$ sea un espacio normado sobre $\mathbb{F} = \mathbb{R}$ o $\mathbb{C}$ , dejemos que $\{x_s \ : \ s \in S \}$ y $\{ c_s \ : \ s \in S \}$ sean conjuntos de vectores y escalares, respectivamente. Entonces existe una función lineal continua $f$ en $X$ tal que $f(x_s) = c_s$ para cada $s \in S$ si existe $K > 0$ s \begin{equation} \left|\sum_{s \in S} a_s c_s \right| \leq K \left\| \sum_{s \in S} a_s x_S \right\| \tag{1}, \end{equation} para cualquier elección de escalares $\{a_s \ : \ s \in S \}$ para lo cual $a_s = 0$ para todos menos finitamente muchos $s \in S$ ("casi todos" los $a_s = 0$ ).

Banach utilizó el teorema de Hahn-Banach para demostrar el teorema 7.10.1, pero el teorema 7.10.1 implica el teorema de Hahn-Banach: Suponiendo que se cumple el teorema 7.10.1, sea $\{ x_s \}$ sean los vectores de un subespacio $M$ , dejemos que $f$ sea una función lineal continua sobre $M$ para cada $s \in S$ , dejemos que $c_s = f(x_s)$ . Desde $f$ es continua, $(1)$ se cumple y $f$ posee una extensión continua a $X$ .

Mi pregunta es:

  1. Si no conocieras ninguno de los teoremas que acabamos de mencionar, ¿cómo se podría partir del sistema $c_i = A_{ij} x_j$ al principio de este post y pensar en establecer las condiciones del teorema 7.10.1 como forma de comprobar si este sistema tiene solución?

  2. ¿Cómo demuestra esta prueba que el sistema no tiene solución?

  3. ¿Cómo reformulamos este proceso como si estuviéramos aplicando el teorema de Hahn-Banach?

  4. ¿Alguien conoce una referencia para el análisis clásico de sistemas en términos de productos infinitos?


1 Neal L. Carothers: Breve historia del análisis funcional .
2 Lawrence Narici, Edward Beckenstein: Espacios vectoriales topológicos 2ª edición.

4voto

multithr3at3d Puntos 453

Intentaré dar algunas respuestas bastante incompletas a sus preguntas.

  1. Para simplificar, consideremos el caso finito. Supongamos que queremos resolver un $n\times n$ sistema lineal de ecuaciones, es decir $Ax = b$ siendo todas las cantidades en cuestión reales. Es decir estamos resolviendo: $$ \begin{matrix} a_{11}x_{11} +\cdots + a_{1n}x_{1n} = b_1 \\ \vdots \\ a_{n1}x_{n1} +\cdots + a_{nn}x_{nn} = b_n \end{matrix} $$ Recordemos que $\mathbb{R}^n$ es autodual, con cualquier funcional lineal (todas las que son continuas) en $\mathbb{R}^n$ dada por $f_a(x) = \langle a , x\rangle = \sum_{k =1}^n a_kx_k$ . Así pues, en el caso que nos ocupa, resolver un sistema lineal equivale a encontrar una solución a: $$ f_{a_1}(x) = b_1 \\ \vdots \\ f_{a_n}(x) = b_n $$ Dónde $a_i = (a_{i1},\cdots a_{in}$ ). Por lo tanto, resolver un sistema simultáneo de ecuaciones lineales es equivalente a encontrar $x \in \mathbb{R}^n$ resolver el problema vectorial anterior. Porque $\mathbb{R}^n$ es reflexivo, esto equivale a elegir $x \in \left(\mathbb{R}^n\right)^*$ y, a continuación, resolver la ecuación si las funciones dadas $f_{a_1}, \cdots , f_{a_n}$ . Con este marco en mente, es útil discutir cuándo se produce la inconsistencia en un sistema lineal. Sea $X$ sea un espacio vectorial sobre $\mathbb{R}$ y que $f \in X^*$ , $\{x_s: s\in S\}\subset X$ y $c_s = f(x_s)$ para todos $s$ . Sea $M = \mathrm{span}(x_s : s \in S)$ . Si el $x_s$ son linealmente independientes no hay problemas. Para cualquier colección finita $x_{s_1}, \cdots x_{s_n}$ podemos definir $f(x_{s_k}) = c_{s_k}$ y, a continuación, ampliarlo a $M$ por linealidad. Todo está bien definido en todos $M$ gracias a la unicidad de la representación dada por la dependencia lineal. Sin embargo, podemos tener problemas cuando la $x_s$ no son linealmente independientes. En concreto, digamos que tenemos $x\in M$ con dos representaciones: $$ x = \sum_{s \in J} \alpha_s x_s \\ x = \sum_{t \in I} \beta_t x_t $$ donde $I,J \subset S$ finito. (La suma anterior puede ser indexada por un nuevo conjunto, digamos $K = I \cup J$ y con escalares indexados por cosas que no están en $I\cap J$ los igualamos a $0$ ) Tenemos: $$ f(x) = \sum_{k \in K}\alpha_kc_k = \sum_{k \in K}\beta_kc_k = f(x) $$ Así que debemos tener: $$ \left| \sum_{k \in J}(\alpha_k - \beta_k)c_k\right| = 0 $$ Ahora bien, no tenemos garantías de que esto sea cierto, ya que los valores de $c_k$ se eligen a priori. Por lo tanto, tenemos que restringir $f$ de alguna manera para garantizar la buena definición. La condición que nos da esto es la especificación: $$ \left|\sum_{k \in K}\gamma_kc_k \right | \leq K \left\|\sum_{k \in K} \gamma_k x_k\right\| $$ para cualquier conjunto finito de escalares $\gamma_k$ . En este caso, fijamos $\gamma_k = \alpha_k - \beta_k$ . En dimensiones finitas, este $K$ siempre existe, ya que podemos expresar todos los vectores en términos de una base común. En el caso general, esto no puede hacerse. Por lo tanto, en resumen, la única condición que nos da una buena definición/consistencia es, de hecho, la condición anterior.

El resultado anterior también implica Hahn Banach como dice el autor.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X