El método de inserción $0$ de forma inteligente sumando y restando un término se utiliza muchas veces en el análisis. Hace tiempo que aprendí a llamar a este uso inteligente de $0$ un "cero propicio" y a otros también les han enseñado ese término: mira aquí y aquí .
Aplicaré esta idea a los productos, a los recíprocos y a los términos de una secuencia reescrita como serie.
Ejemplo 1. Demostremos la continuidad de la multiplicación de números reales. Si $x$ está cerca $a$ y $y$ está cerca $b$ entonces queremos mostrar $xy$ está cerca $ab$ . Una forma estándar de hacerlo es escribir $$ xy - ab = (xy - ay) + (ay - ab) = (x-a)y + a(y-b) $$ y luego $$ (x-a)y = (x-a)(y-b+b) = (x-a)(y-b) + (x-a)b, $$ así que $$ xy - ab = (x-a)(y-b) + (x-a)b + a(y-b). $$ En el lado derecho $x$ y $y$ sólo aparecen en el contexto de $x-a$ y $y-b$ Así que al elegir $x$ y $y$ para que $|x-a|$ y $|y-b|$ son suficientemente pequeños, podemos hacer que el lado derecho se acerque arbitrariamente a $0$ . Por lo tanto, la multiplicación como un mapeo $\mathbf R^2 \to \mathbf R$ es continua en cada punto $(a,b)$ en $\mathbf R^2$ .
Un argumento similar muestra otras operaciones de multiplicación (en $\mathbf C$ , en ${\rm M}_n(\mathbf R)$ etc.) son continuos.
ACTUALIZACIÓN: la respuesta de CR Drost me recuerda que un cero propicio se produce en el prueba de la regla del producto del cálculo para la derivada $(u(t)v(t))'$ de la misma manera que en la última identidad anterior para $xy - ab$ . En esa identidad, sustituye $a$ y $b$ avec $u(t)$ y $v(t)$ y reemplazar $x$ y $y$ avec $u(t+h)$ y $v(t+h)$ . Nos dice que $u(t+h)v(t+h) - u(t)v(t)$ es igual a $$ (u(t+h) - u(t))(v(t+h)-v(t)) + (u(t+h) - u(t))v(t) + u(t)(v(t+h)-v(t)). $$ Dividir por $h$ y que $h \to 0$ para entrar en el límite $$ u'(t)0 + u'(t)v(t) + u(t)v'(t) = u'(t)v(t) + u(t)v'(t). $$
Ejemplo 2. Demostremos la continuidad de la inversión en los números reales no nulos. Si $a \not= 0$ y $x$ está lo suficientemente cerca de $a$ queremos mostrar $1/x$ está cerca de $1/a$ . Para empezar, supongamos que $|x-a| < |a|$ Así que $x$ está dentro del intervalo abierto alrededor de $a$ de radio $a$ y por lo tanto $x \not= 0$ . Tenemos $$ \left|\frac{1}{x} - \frac{1}{a}\right| = \frac{|x-a|}{|x||a|}. $$ En el lado derecho, en el numerador $x$ sólo aparece en el contexto de $x-a$ Lo cual es genial. Para el denominador, queremos obtener un límite inferior (positivo) de $|x|$ en términos de $|x-a|$ para obtener un límite superior en $1/|x|$ . Es el momento de un cero propicio: $$ |a| = |a-x+x| \leq |a-x| + |x| \Longrightarrow |x| \geq |a| - |a-x| = |a| - |x-a|. $$ Mientras $|x-a| < |a|$ ese límite inferior es positivo, por lo que $$ |x-a| < |a| \Longrightarrow \left|\frac{1}{x} - \frac{1}{a}\right| = \frac{|x-a|}{|x||a|} \leq \frac{|x-a|}{(|a| - |x-a|)|a|}. $$ El lado derecho va a $0$ como $|x-a| \to 0$ (con $a$ fijo). Concretamente, afinar $|x-a|< |a|$ a $|x-a| \leq |a|/2$ y obtenemos $|a| - |x-a| \geq |a| - |a|/2 = |a|/2$ Así que $$ \left|\frac{1}{x} - \frac{1}{a}\right| \leq \frac{|x-a|}{|a|^2/2} = \frac{2}{|a|^2}|x-a|. $$
Un argumento similar demuestra que la inversión es continua en $\mathbf C^\times$ y ${\rm GL}_n(\mathbf R)$ aunque hay que tener un poco más de cuidado para el caso de la matriz (cuando $n > 1$ ) ya que la multiplicación de matrices no es conmutativa.
Ejemplo 3: Si $\{a_n\}$ es una secuencia de números donde $|a_n - a_{n+1}| \leq 1/2^n$ podemos escribir cada $a_m$ como una suma telescópica de las diferencias $a_n - a_{n+1}$ para $n \geq m$ lo que equivale a utilizar un número infinito de ceros propicios: $$ a_m = (a_m - a_{m+1}) + (a_{m+1} - a_{m+2}) + (a_{m+2} - a_{m+3}) + \cdots = \sum_{k \geq m} (a_k - a_{k+1}). $$ Esto por sí mismo no parece muy interesante, pero utilizando esta idea con funciones en lugar de números es como se demuestra en la teoría de la medida que un $L^1$ -Una secuencia de funciones convergente tiene una subsecuencia que es convergente puntualmente en casi todas partes. El argumento para ello está escrito en la respuesta aceptada aquí .