Es el método correcto? Sé que no se puede reemplazar una expresión con una sub-expresión de un límite, pero es este el caso? Estoy hablando específicamente de las líneas de $2$$3$. Si esta no es la manera correcta, ¿por qué está mi respuesta correcta? ¿Cómo debo enfoque de este límite? Gracias por la ayuda!$$\lim_{u\to \infty}\left(-\frac{u^2\ln\left(u^2\right)}{1+u^2}-\ln\left(\frac1{1+u^2}\right)\right)$$ $$=\lim_{u\to \infty}\left(-\frac{u^2\ln\left(u^2\right)}{u^2\left(1+\frac1{u^2}\right)}+\ln\left(1+u^2\right)\right)$$ $$=\lim_{u\to \infty}\left(-\ln\left(u^2\right)+\ln\left(1+u^2\right)\right)$$ $$=\lim_{u\to \infty}\ln\left(\frac{1+u^2}{u^2}\right)$$ $$=\lim_{u\to \infty}\ln\left(\frac{u^2\left(1+\frac1{u^2}\right)}{u^2}\right)$$ $$=\lim_{u\to \infty}\ln1=0$$ $$$$***Edit: Is there a way to evaluate this limit $\textbf{sin}$ el uso de la Expansión de la Serie? $$$$Tal vez esto podría ser útil, el límite original era: $$\lim_{x\to 0}\left(\frac{\ln\left(x^2\right)}{1+x^2}-\ln\left(\frac{x^2}{1+x^2}\right)\right)$$ Como se puede ver, te dejo: $$x=\frac1{u}$$ Como pensé que sería más agradable trabajar con $u\to\infty$
Respuestas
¿Demasiados anuncios?A la dirección de su pregunta inicial: no, su enfoque no es correcto, porque precisamente la razón por la que declaró a sí mismo. Lo que pasa es que esta mal enfoque, le da la respuesta correcta.
De todos modos, para abordar el límite: $$\frac{\ln x^2}{1+x^2} - \ln x^2 + \ln (1+x^2) = \ln x^2 \left(\frac{1}{1+x^2} - 1\right) + \ln (1+x^2)$$
Pero $\ln(1+x^2) \to \ln 1 = 0$ $x\to 0$ por la continuidad de $\log$. Tan sólo necesitamos trabajar en $$\frac{x^2\ln x^2}{1+x^2} = \frac{\ln x^2}{1 + x^{-2}}$$
Nos podría utilizar de L'Hospital (ya que es de la forma $\infty/\infty$) en esto para obtener $$\frac{2x^{-1}}{-2x^{-3}} =-x^2 \to 0$$ so $(x^2\ln x^2)/(1+x^2) \a 0$ so the entire expression goes to $0$, since it's the sum of two things that go to $0$. No estoy seguro de cómo evitar de L'Hospital en el último paso, pero me di cuenta que había puesto en esto de todos modos, especialmente re: tu último comentario.
Como dxiv señaló, el paso 3 no siga desde el paso 2 (básicamente, tomó el límite en el denominador, sin hacer $u$ tiende a $-\infty$ en el numerador, que no se le permite).
Una forma de encontrar su límite sin expansión de la serie (muy triste) y sin necesidad de L'Hospital de la regla sería la siguiente:
$$\dfrac{\ln(x^2)}{1+x^2}-\ln\left(\dfrac{x^2}{1+x^2}\right) = -\dfrac{\ln(x^2) x^2}{1+x^2} + \ln(1+x^2)$$
A continuación, $\ln(x^2)x^2 \rightarrow 0$ al$x$$0$, que es alto las cosas de la escuela (vamos a $y=x^2$, usted tiene que encontrar el límite de $y \ln(y)$ al$y$$0$). Y $1+x^2 \rightarrow 1$. Luego su expresión se va a $-0/1 + \ln(1)$,$0$.
Lo que básicamente se está haciendo es utilizar la siguiente afirmación: $ \def\lfrac#1#2{{\large\frac{#1}{#2}}} $
(Incorrecto) $\lim_{x \to p} f(g(x),h(x)) = \lim_{x \to p} f(\lim_{y \to p} g(y),h(x))$.
Para un simple pero muy instructiva la contra-ejemplo:
$1 = \lim_{x \to 0} \lfrac{\exp(2x)-(1+x)}{x} \ne \lim_{x \to 0} \lfrac{\exp(2x)-(1)}{x} = 2$ aunque $\lim_{x \to 0} (1+x) = 1$.
También, aunque yo siempre aconsejo el uso de asintótica de expansión, se puede "evitar" a emplear en nuestra solución final aunque se pueden derivar de ella a través de la expansión asintótica. Es decir, nos fijamos en la mayoría de los términos significativos en las expansiones y tirar de ellos fuera de la resta o la división, según corresponda, de tal manera que fácilmente podemos lidiar con el resto.
$\lfrac{\ln(x^2)}{1+x^2}-\ln\big(\lfrac{x^2}{1+x^2}\big) = \ln(x^2) - \lfrac{x^2 \ln(x^2)}{1+x^2} - \ln(x^2) + \ln(1+x^2) = - \lfrac{x^2 \ln(x^2)}{1+x^2} + \ln(1+x^2)$.
Como $x \to 0$, claramente tenemos $\ln(1+x^2) \to 0$ $x^2 \ln(x^2) = \lfrac{-\ln(1/x^2)}{1/x^2} \to 0$ desde $1/x^2 \to \infty$. Usted puede probar estos por su favorito métodos, dos de los cuales he esbozado en este comentario.
Otro problema en su pregunta que me doy cuenta de que no se ha abordado es que es incorrecto para dejar $x = \lfrac1u$. Pensar de esta manera. Usted está dada $x \to 0$, lo que significa que $x$ va hacia la $0$ en algunas de manera que usted no tiene ningún control. Todo lo que sé es que, finalmente, queda tan cerca de $0$ como usted desea, pero nunca iguales. Usted es libre de dejar $u = \lfrac1x$, pero entonces usted no puede reclamar que $u \to \infty$. Es posible que desde entonces no se $x$ puede oscilar alrededor de $0$. Pero usted puede dejar $u = \lfrac1{x^2}$ afirman que $u \to \infty$, porque es cierto y puede ser probada.
Me gustaría señalar que el cálculo no es tan malo como se podría pensar. El punto es que obviamente no se puede reemplazar cualquier subexpresión en el lado a de la límite a su límite, pero no es el límite algebraico teorema (ver, por ejemplo, la wikipedia o a esta pregunta) que permite a ciertos tales operaciones. Para el caso que nos ocupa, se establece que si $\lim_{u\to\infty} f(u)$ $\lim_{u\to\infty} g(u)$ existen y uno de ellos es finito, entonces $$ \lim\limits_{u\to\infty} \!\left(f(u)+ g(u)\right)=\lim\limits_{u\to\infty} f(u) + \lim\limits_{u\to\infty} g(u)$$ y $$ \lim\limits_{u\to\infty} f(u)\cdot g(u)=\lim\limits_{u\to\infty} f(u) \cdot \lim\limits_{u\to\infty} g(u)\,.$$ Para tu caso, tenemos $$\lim\limits_{u\to\infty} \!\a la izquierda[-\frac{\ln\left(u^2\right)}{1+\frac1{u^2}}+\ln\left(1+u^2\right)\right]\\ =\lim\limits_{u\to\infty} \!\a la izquierda[\left(-\ln u^2+\left(1+\frac{1}{u^2}\right)\ln\!\left(1+u^2\right)\right)\cdot\underbrace{\left(\frac{1}{1+\frac{1}{u^2}}\right)}_{g(u)}\right]$$ Ahora $\lim_{u\to\infty}g(u)=1$, por lo que nos puede caer por el producto de la regla anterior. Nos quedamos con $$\lim\limits_{u\to\infty} \!\left[\ln\left(\frac{1+u^2}{u^2}\right)+\underbrace{\frac{\ln\!\left(1+u^2\right)}{u^2}}_{h(u)}\right]$$ Aquí, $\lim_{u\to\infty}h=0$, y podemos utilizar la regla de la suma arriba para descartarlo y, finalmente, llegar a su resultado.
Voy a añadir esta versión modificada, como otra respuesta, desde la última ha sido votada abajo para el olvido. La parte importante de la respuesta es todavía el uso de la continuidad de la exponencial para calcular el límite sin L'Hôpital o serie. Tenemos que
\begin{align} &\exp\left(\lim_{x\to 0}\frac{\ln\left(x^2\right)}{1+x^2}-\ln\left(\frac{x^2}{1+x^2}\right)\right)\\ =&\lim_{x\to 0}\exp\left(\frac{\ln\left(x^2\right)}{1+x^2}-\ln\left(\frac{x^2}{1+x^2}\right)\right)\\ =&\lim_{x\to 0}{\left(x^2\right)}^{\frac{1}{1+x^2}}\cdot\frac{1+x^2}{x^2} \end{align}
Ahora, escriba $x^2=t$, el límite se convierte en
$$\lim_{t\to0^+}t^{\frac1{1+t}}\cdot (1+t^{-1})=t^{\frac1{1+t}}+t^{\frac{-t}{1+t}}$$
El primer sumando muy claramente tiende $0$. Ahora, el segundo puede ser escrito como
$${\left(t^t\right)}^{-(1+t)}$$
y $t^t$ tiende a $1$ $t\to0^+$ (véase el lema de abajo). Desde $-(1+t)\to-1$, y, en particular, está lejos de $0$ cerca del límite (vea la sección de bonos), tenemos que ${\left(t^t\right)}^{-(1+t)}\to 1$. De ello se sigue que
$$\exp\left(\lim_{x\to 0}\frac{\ln\left(x^2\right)}{1+x^2}-\ln\left(\frac{x^2}{1+x^2}\right)\right)=1$$
Así que el límite interior debe ser $0$.
Lema: $t^t\to1$ $t\to0^+$
Prueba (sin el uso de series o de L'Hôpital): vamos a mostrar que el $\sqrt[n]{n}\to 1$$n\to\infty$. Esto implica que
$${\left(\frac{1}{n}\right)}^{1/n}\to1$$
como $1/n\to0^+$, que a su vez demuestra el lema a través de la continuidad de la $t^t$, o a través de monotocinty cerca de $t=0$, que puede ser concertado por la diferenciación $t^t=\exp\big(t\ln(t)\big)$.
Este es un límite clásico, pero podemos escribir una breve prueba aquí. Tenemos que $\sqrt[n]{n}>1$ todos los $n>1$. Para cada una de las $n>1$, vamos a $\epsilon_n>0$ ser tal que $\sqrt[n]{n}=1+\epsilon_n$. Entonces, por el teorema del binomio:
$$n={(1+\epsilon_n)}^n=1+\binom{n}{1}\epsilon_n+\binom{n}{2}{\epsilon_n}^2+\dots$$
Puesto que cada término de la suma en el lado derecho es positivo, llegamos a la conclusión de que
$$n<\binom{n}{2}{\epsilon_n}^2=\frac{n(n-1)}{2}{\epsilon_n}^2,$$
y por lo tanto
$$0<\epsilon_n<\sqrt{\frac{2}{n-1}}.$$
El último término va a$0$$n\to\infty$, de modo que por el teorema del sándwich, $\epsilon_n$ va también a $0$ $n\to\infty$. $\square$
Esto es un poco de un bono que me escribió después de mi discusión con user21820. Es muy básico, un análisis real $\epsilon$-$\delta$ el estilo de la prueba de que el límite se utiliza en la respuesta. No es especialmente inteligente idea, sino adecuada manipulación simbólica. También arroja luz sobre por qué la $c>0$ es importante en la declaración de abajo.
Reclamo: Supongamos que, como $x\to 0$, $g(x)\to1$ y y $f(x)\to c$ algunos $c>0$. Entonces
$$\lim_{x\to0}{g(x)}^{f(x)}=1$$
Prueba: Por hipótesis, el siguiente:se
\begin{align} \forall\epsilon_f>0,\,\exists\delta_f>0,\,\forall x\,\text{ with }\,0<|x|<\delta_f,\,|f(x)-c|<\epsilon_f \tag{1}\label{eq1}\\ \forall\epsilon_g>0,\,\exists\delta_g>0,\,\forall x\,\text{ with }\,0<|x|>\delta_g,\,|g(x)-1|<\epsilon_g\tag{2}\label{eq2} \end{align}
Vamos a mostrar que
\begin{align} \forall\epsilon>0,\,\exists\delta>0,\,\forall x\,\text{ with }\,0<|x|<\delta,\,\left|{g(x)}^{f(x)}-1\right|<\epsilon \tag{%#%#%}\label{eq*} \end{align}
Deje $*$ y elija $\epsilon>0$$0<\epsilon_f<c$. A continuación, hay algunos $\eqref{eq1}$ de manera tal que siempre que $\delta_f>0$ tenemos $0<|x|<\delta_f$. En este caso, se tiene que
$0<c-\epsilon_f<f(x)<c+\epsilon_f$$
Ahora, tenemos que
$$\tag{3}\label{eq3}0<\frac1{c+\epsilon_f}<\frac1{f(x)}<\frac1{c-\epsilon_f}.$$
así que podemos tomar $$k_0={(1+\epsilon)}^{\displaystyle\left(\frac1{c+\epsilon_f}\right)}-1>0$ $\epsilon_g=k_0$ obtener algunos $\eqref{eq2}$ de manera tal que siempre que $\delta_0>0$ hemos
$0<|x|<\delta_0$$
Del mismo modo, tenemos que
$$g(x)<1+k_0={(1+\epsilon)}^{\displaystyle\left(\frac1{c+\epsilon_f}\right)}\tag{4}\label{eq4}$$
así que podemos tomar $$k_1=1-{(1-\epsilon)}^{\displaystyle\left(\frac1{c+\epsilon_f}\right)}>0$ $\epsilon_g=k_1$ obtener algunos $\eqref{eq2}$ de manera tal que siempre que $\delta_1>0$ hemos
$0<|x|<\delta_1$$
Ahora, vamos a $$1-k_1={(1-\epsilon)}^{\displaystyle\left(\frac1{c+\epsilon_f}\right)}<g(x)\tag{5}\label{eq5}$. Entonces, siempre que $\delta=\min\{\delta_f,\delta_0,\delta_1\}>0$, hemos de $0<|x|<\delta$ $\eqref{eq4}$ que
$\eqref{eq5}$$
De nuestra selección de $${(1-\epsilon)}^{\displaystyle\left(\frac1{c+\epsilon_f}\right)}<g(x)<{(1+\epsilon)}^{\displaystyle\left(\frac1{c+\epsilon_f}\right)}\tag{6}\label{eq6}$, se desprende $\delta_f$ que siempre $\eqref{eq3}$
$${(1+\epsilon)}^{\displaystyle\left(\frac1{c+\epsilon_f}\right)}<{(1+\epsilon)}^{1/f(x)}\\ {(1-\epsilon)}^{1/f(x)}<{(1-\epsilon)}^{\displaystyle\left(\frac1{c+\epsilon_f}\right)}$$
La primera desigualdad se deduce del hecho de que $0<|x|<\delta$ es el aumento de al $h(x)=a^x$ y la segunda se deduce del hecho de que es decreciente cuando se $a>1$. Las desigualdades anteriormente, junto con los $a<1$, implica que siempre que $\eqref{eq6}$
$0<|x|<\delta$$
Desde $${(1-\epsilon)}^{1/f(x)}<g(x)<{(1+\epsilon)}^{1/f(x)}$ en la desigualdad anterior , se deduce que el $f(x)>0$, $1-\epsilon<{g(x)}^{f(x)}<1+\epsilon$, lo que demuestra $|{g(x)}^{f(x)}-1|<\epsilon$, por lo que la reclamación. $\eqref{eq*}$
Observe que en este último paso, necesitábamos $\square$ a fin de preservar el sentido de las desigualdades. Que es donde $f(x)>0$ entra en juego.
Por supuesto, su adaptación a las $c>0$ es simple, pero para $c<0$ la demanda no se extiende. Considere la posibilidad de $c=0$$g(x)=e^{1/x^2}$.
Toda esta discusión puede ser simplificado al darse cuenta de que $f(x)=x^2$ es continua en a $x^y$. Ahora, cuando $(0,\infty)^2$ y $x=0$, $y>0$. Pero cuando $x^y=0$ y $x>0$, $y=0$, así que ya vemos que hay algo de funky discontinuidad pasando si tratamos de extender el dominio de a $x^y=1$.
Cerca de $[0,\infty)$, las cosas se ponen aún más extrañas, y usted puede juguete con el anterior $(0,0)$-$g(x)$ ejemplo para mostrar que los diferentes caminos pueden llevar a cualquier valor no negativo límite.