2 votos

¿El límite de la suma doble es siempre la suma en serie?

Sea $B$ sea un espacio de Banach (real o complejo), supongamos que $(b_{i, j})_{i, j \in \mathbb{N}}$ es una familia de elementos de $B$ . Si sabemos que $$ \lim_{n \to +\infty} \left( \sum_{i=0}^{n} \sum_{j=0}^{n} b_{i, j} \right) $$ existe en $B$ ¿podemos estar seguros de que $$ \lim_{n \to +\infty} \left( \sum_{i=0}^{n} \sum_{j=0}^{n} b_{i, j} \right) = \sum_{i=0}^{+\infty}\left( \sum_{j=0}^{+\infty} b_{i, j} \right) $$ sin suponer una convergencia absoluta?

4voto

Sin suponer una convergencia absoluta, el lado izquierdo y el derecho pueden converger a valores diferentes o divergir independientemente. Por ejemplo

$$b_{i,0} = 1$$ $$\forall j > 0, b_{i,j} = \frac 1 {j + 1} - \frac 1 {j}$$

donde $i$ puede tomar valores arbitrarios. En este caso, $\sum_{j=0}^{n} b_{i,j} = \frac 1 {n + 1}$ para todos $n > 0$ .

El lado izquierdo pasa a ser

$$ \lim_{n \to + \infty} \left( \sum_{i=0}^{n} \sum_{j=0}^{n} b_{i, j} \right) = \lim_{n \to + \infty} \left( n \frac 1 {n + 1} \right) = 1 $$

mientras que la derecha se convierte en

$$ \sum_{i=0}^{+ \infty} \left( \sum_{j=0}^{+ \infty} b_{i, j} \right) = \sum_{i=0}^{+ \infty} \left( \lim_{n \to + \infty} \frac 1 {n + 1} \right) = 0 $$

Además, si invirtiéramos el orden de los símbolos de la suma, tendríamos una situación bastante desordenada.


A la inversa, si sabemos que cualquiera de los límites existe para los valores absolutos de los elementos, entonces ésta, y virtualmente cualquier otra igualdad, debería cumplirse. Más precisamente sea $X$ sea un espacio vectorial normado, digamos $\mathbb R$ o $\mathbb C$ :

  1. Supongamos que $\sigma: \mathbb N \to \mathbb N$ es biyectiva (una "transposición infinita" de los índices). Y que la secuencia $a: \mathbb N \to X$ es absolutamente convergente:

$$\sum_{k=0}^{\infty} |a_k| \in \mathbb R_{\geq 0}$$

entonces

$$\sum_{k=0}^{\infty} a_k = \sum_{k=0}^{\infty} a_{\sigma(k)}$$

  1. Y también, si $\tau: \mathbb N \to \mathbb N \times \mathbb N$ es otra biyección, ordenando la secuencia de índices en una "matriz infinita" y viceversa, y $b: \mathbb N \times \mathbb N \to X$ es una matriz de este tipo. Entonces

$$\sum_{k=0}^{\infty} |b_{\tau(k)}| \in \mathbb R_{\geq 0}$$

o

$$\sum_{i=0}^{\infty} \sum_{j=0}^{\infty} |b_{i, j}| \in \mathbb R_{\geq 0}$$

implica

$$\sum_{i=0}^{\infty} \sum_{j=0}^{\infty} b_{i, j} = \sum_{k=0}^{\infty} b_{\tau(k)}$$

Una prueba es la siguiente:

  1. Consideremos primero el caso de una serie positiva, y establecer que la suma de originales (en $k$ ) serie es $\leq$ la suma de las series transpuestas (en $\sigma(k)$ ). Dado que la primera serie también puede considerarse como transposición de la segunda, también tenemos la desigualdad opuesta, es decir, las sumas son iguales.

    La extrapolación al caso general de series arbitrarias de este tipo se hace en virtud de la agrupación de los elementos del mismo signo, es decir, la representación de la serie como suma doble: primero por los elementos que tienen el mismo signo luego por los valores resultantes aplicados a los signos correspondientes. (Por ejemplo, en el caso de $X = \mathbb R$ sólo dos signos, $+$ y $-$ )

  2. En una dirección , suponiendo $\bar{B} := \sum_{k=0}^{\infty} |b_{\tau(k)}|$ se define.

Entonces $\bar{B}$ es un límite superior para las secuencias crecientes de sumas parciales:

$$ \bar{B}'_i(m) := \sum_{j = 0}^{j = m} |b_{i,j}| \leq \bar{B} $$

por lo que estas sumas son convergentes:

$$ \sum_{j = 0}^{\infty} |b_{i,j}| \text{ and } \sum_{j = 0}^{\infty} b_{i,j} =: B'_i $$

y aún queremos comprobar que

$$ \sum_{i = 0}^{\infty} B'_i = B := \sum_{k = 0}^{\infty} b_{\tau(k)} $$

Debido a la convergencia absoluta, para cualquier $\epsilon > 0$ tenemos

$$ \left| B - \sum_{k = 0}^{k = \phi(\epsilon)} b_{\tau(k)} \right| = \left| \sum_{k = \phi(\epsilon) + 1}^{\infty} b_{\tau(k)} \right| \leq \sum_{k = \phi(\epsilon) + 1}^{\infty} |b_{\tau(k)}| \lt \epsilon $$

donde $\phi: \mathbb R_{\gt 0} \to \mathbb N$ es el "mapa de estimación", de la definición del límite, para la convergencia absoluta para $b_{\tau(k)}$ .

Y si $S$ es un subconjunto arbitrario de índices, tal que $[0, \phi(\epsilon)] \subseteq S \subseteq \mathbb N$ entonces también

$$ \left| B - \sum_{k \in S} b_{\tau(k)} \right| = \left| \sum_{k \in \mathbb N \setminus S} b_{\tau(k)} \right| \leq \sum_{k \in \mathbb N \setminus S} |b_{\tau(k)}| \leq \sum_{k = \phi(\epsilon) + 1}^{\infty} |b_{\tau(k)}| \lt \epsilon $$

En general, si $S$ y $S'$ son dos conjuntos de este tipo, y $S \subseteq S'$ , entonces $\left| B - \sum_{k \in S'} b_{\tau(k)} \right| \leq \left| B - \sum_{k \in S } b_{\tau(k)} \right|$ .

Sea $\psi (f, k) := \max_{0 \le x \le k} f(x)$ , y $(m, n) := \psi (\tau, \phi (\epsilon))$ define el "rectángulo índice", basado en $(0, 0)$ y que contiene todos los valores $\tau(0), \dots, \tau(\phi(\epsilon))$ . Definimos $S$ ser $\tau^{-1}([0, m], [0, n])$ , es decir, un conjunto de tales índices, que son asignados por $\tau$ en el rectángulo (lo suficientemente grande para satisfacer los requisitos de $S$ ). Entonces

$$ \left| B - \sum_{k \in S} b_{\tau(k)} \right| = \left| B - \sum_{i = 0}^{i = m} \sum_{j = 0}^{j = n} b_{i,j} \right| $$

y, puesto que todas estas expresiones están limitadas por $\epsilon$ , y sólo puede reducirse con $m$ y $n$ también tenemos

$$ \left| B - \sum_{i = 0}^{\infty} \sum_{j = 0}^{\infty} b_{i,j} \right| < \epsilon $$

Desde $\epsilon$ puede ser arbitrariamente pequeño, es necesario

$$ \sum_{i = 0}^{\infty} \sum_{j = 0}^{\infty} b_{i,j} = B $$

En la otra dirección , suponiendo $\bar{B} := \sum_{i=0}^{\infty} \sum_{j=0}^{\infty} |b_{i, j}|$ se define. Entonces

$$ \sum_{i=0}^{i=m} \sum_{j=0}^{j=n} |b_{i, j}| \leq \bar{B} $$

et

$$ \sum_{k=0}^{k=l} |b_{\tau(k)}| \leq \sum_{i=0}^{i=m} \sum_{j=0}^{j=n} |b_{i, j}| $$

donde como antes $(m, n) := \psi (\tau, l)$ .

Así que $l \mapsto \sum_{k=0}^{k=l} |b_{\tau(k)}|$ , la secuencia de sumas parciales positivas, es creciente y acotada, por lo tanto, convergente.

La igualdad de los límites se deduce del resultado anterior.

$\square$

La combinación de estas dos reglas da la respuesta a la (segunda) pregunta. Y, entre otras cosas permite intercambiar los símbolos de suma para series absolutamente convergentes. Estas reglas pueden considerarse una generalización de la conmutatividad de la suma.


Véase también: https://en.wikipedia.org/wiki/Series_(matemáticas)

2voto

zhw. Puntos 16255

Consideremos la matriz infinita $b_{ij}$ compuesto por $1$ a lo largo de la diagonal principal, $-1$ a lo largo de la diagonal directamente por encima de la diagonal principal, y $0$ en todas partes. (Es bueno hacer un dibujo.) Entonces el "cuadrado" suma sobre $n\times n$ son todos iguales a $1.$ Todas las sumas infinitas horizontales son $0.$ Si a continuación sumamos las sumas horizontales, obtenemos $0.$ La primera suma infinita vertical es $1;$ todas las demás sumas infinitas verticales dan $0.$ Así que si sumamos las sumas verticales, obtenemos $1.$ Y $0 \ne 1!$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X