Vamos a dejar que $A$ $B$ estar acotada a los operadores en un espacio de Hilbert, y deje $\sigma$ ser el espectro:
$ \sigma(A) = \{\lambda \in \mathbb{C} \mid \lambda I - \text{ no es invertible}\} $
Me gustaría saber si $\lVert A - B \rVert < \epsilon$ implica que el $\sigma(A)$ $\sigma(B)$ "cerrar". Estoy más interesado en saber si $\sigma(B) \subset \sigma(A) + B_\epsilon(0)$, pero si esto es falso, tal vez el derecho de la declaración es $\sigma(B) \subset \sigma(A) + B_{f(\epsilon)}(0)$ algunos $f = o(1)$, $f$ tal vez, dependiendo de $A$ si lo mantenemos fijos y varían $B$.
Si esto no está claro, el tipo de contraejemplo estaría buscando es: un operador $A$ tal de que no se $B \to 0$ $\sigma(A + B)$ a menos de una distancia fija (en la métrica de Hausdorff) de $\sigma(A)$.
Edit: la demanda original (con dependencia lineal en $\epsilon$) es falsa; ver este post en el blog de Terry Tao. Básicamente, la que construye las matrices de $A$ $B$ tal que $\lVert B \rVert < \epsilon$, el espectro de $A$ es todos los ceros, pero los autovalores de a $A + B$ $n$th raíces de $\epsilon$ (donde $n$ es la dimensionalidad). Sin embargo, la segunda opción me aparece es verdadero en dimensiones finitas, al menos si $f$ es permitido a depender de $A$, ya que los autovalores son continuas en la matriz de entradas.