9 votos

Cómo probar $\lim_{n\to \infty}\frac{n}{\ln{(\ln{n}})}\left(1-a_{n}-\frac{n}{\ln{n}}\right)=-1$ ?

Que la ecuación $x^n+x=1$ tienen una raíz positiva $a_{n}$ .

Demuestra que $$\lim_{n\to \infty}\frac{n}{\ln{(\ln{n}})}\left(1-a_{n}-\dfrac{n}{\ln{n}}\right)=-1$$

hace algunas horas, demuestra que $$\lim_{n\to \infty}\frac{n}{\ln{n}}(1-a_{n})=1$$

Cómo probar este límite $\displaystyle\lim_{n\to \infty}\frac{n}{\ln{n}}(1-a_{n})=1$

este problema es de china paper(1993): http://www.cnki.com.cn/Article/CJFDTotal-YEKJ199301013.htm

y este papel poof es muy feo, así que quiero ver otros métodos agradables, yo kown estos pueden utilizar el análisis de estimación incremental, Gracias

1 votos

¿Esto es de algún libro, ejercicio? ¿Hay algo que no nos estás contando? =)

0 votos

Parece que la definición de $a_n$ no ha aparecido...

0 votos

El comando Maple $$asympt(solve(x^n+x = 1, x), n, 2) $$ produce $$1-\frac {{\it LambertW} \left( n \right) }{n}+O \left( n^{-2} \right) .$$ Queda por aplicar la fórmula asintótica $LambertW(n)\sim \log(n)-\log(\log(n))$ como $n \to \infty .$

5voto

Did Puntos 1

Dejemos que $a_n=1-\frac1n(\log n)b_n$ entonces $(a_n)^n=1-a_n$ lee $n\log a_n=\log(1-a_n)$ Es decir, $$ n\log\left(1-\frac1n(\log n)b_n\right)=\log\left(\frac1n(\log n)b_n\right). $$ Desde $a_n\to1$ y $\log(1-x)=-x+O(x^2)$ cuando $x\to0$ , $$ \log\left(1-\frac1n(\log n)b_n\right)=-\frac1n(\log n)b_n+o\left(\frac1n\right). $$ Desde $b_n\to1$ , $\log b_n=o(1)$ por lo que $$ -(\log n)b_n+o(1)=\log\log n-\log n+o(1) $$ es decir, $$ b_n=1-\frac{\log\log n}{\log n}+o\left(\frac1{\log n}\right). $$ Esto significa que $$ 1-a_n-\frac{\log n}n+\frac{\log\log n}n=o\left(\frac1n\right), $$ lo que equivale a $$ \frac{n}{\log\log n}\left(1-a_n-\frac{\log n}n\right)=-1+o\left(\frac1{\log\log n}\right). $$ En particular, se mantiene la siguiente conclusión más débil: $$ \lim_{n\to\infty}\frac{n}{\log\log n}\left(1-a_n-\frac{\log n}n\right)=-1. $$

0 votos

Un poco de argumento sería útil para justificar que $a_n\to1$ . Por ejemplo, $a_n<1$ o bien $a_n^n+a_n\ge2$ y $a_n\gt1-\frac1{\sqrt{n}}$ o bien dos aplicaciones de La desigualdad de Bernoulli daría $$ \begin{align} \left(1-\frac1{\sqrt{n}}\right)^n+\left(1-\frac1{\sqrt{n}}\right) &\le e^{-\sqrt{n}}+\left(1-\frac1{\sqrt{n}}\right)\\ &\le\frac1{1+\sqrt{n}}+\left(1-\frac1{\sqrt{n}}\right)\\ &=1-\frac1{n+\sqrt{n}}\\ &\lt1 \end{align} $$

0 votos

¿Cómo justificas que $b_n\to1$ ?

0 votos

En la segunda ecuación, para obtener un error de $o\left(\frac1n\right)$ parece que estás asumiendo $\log(n)b_n=o(1)$ .

5voto

Anthony Shaw Puntos 858

Si ponemos $x=e^{-t}$ obtenemos $$ x^n+x=1\iff -nt=\log\left(1-e^{-t}\right) $$ $$ \begin{align} -nt &=\log\left(1-e^{-t}\right)\\ &=\log(t)+\log\left(\frac{1-e^{-t}}{t}\right)\\ &=\log(t)-\frac{t}{2}+\log\left(\frac{\sinh(t/2)}{t/2}\right)\\ \frac12-n &=\frac{\log(t)}{t}+\frac1t\log\left(\frac{\sinh(t/2)}{t/2}\right)\tag{1} \end{align} $$ donde, para $t\gt0$ , $\frac1t\log\left(\frac{\sinh(t/2)}{t/2}\right)\le\min\left(\frac12,\frac{t}{24}\right)$ .

En $(0,1)$ $$ \begin{align} \frac{\mathrm{d}}{\mathrm{d}t}\frac{\log(t)}{t} &=\frac{1-\log(t)}{t^2}\\ &\gt0\tag{2} \end{align} $$ por lo tanto, $\frac{\log(t)}{t}$ aumenta monótonamente desde $-\infty$ a $0$ en $(0,1)$ .

Para $n\ge4$ $$ \begin{align} \frac{\log(\log(n)/n)}{\log(n)/n} &=\frac{\log(\log(n))-\log(n)}{\log(n)/n}\\ &=n\frac{\log(\log(n))}{\log(n)}-n\\ &\gt\frac12-n\tag{3} \end{align} $$ Para $n\ge3$ $$ \begin{align} \frac{\log\left(\frac{\log(n)}{n}\left(1-\frac{\log(\log(n))}{\log(n)}\right)\right)}{\frac{\log(n)}{n}\left(1-\frac{\log(\log(n))}{\log(n)}\right)} &=\frac{\log(\log(n))-\log(n)+\log\left(1-\frac{\log(\log(n))}{\log(n)}\right)}{\frac{\log(n)}{n}\left(1-\frac{\log(\log(n))}{\log(n)}\right)}\\ &=-n+\frac{\log\left(1-\frac{\log(\log(n))}{\log(n)}\right)}{\frac{\log(n)}{n}\left(1-\frac{\log(\log(n))}{\log(n)}\right)}\\ &=-n-\frac{n\log(\log(n))}{\log(n)^2}\varphi\left(\frac{\log(\log(n))}{\log(n)}\right)\\ &\lt\frac12-n\tag{4} \end{align} $$ donde $\varphi(u)=-\frac{\log(1-u)}{u(1-u)}\ge1$ en $(0,1)$ .

Utilizando $(1)$ , $(2)$ , $(3)$ y $(4)$ podemos concluir que existe una $t$ que satisface $(1)$ en el rango $$ \frac{\log(n)}{n}\left(1-\frac{\log(\log(n))}{\log(n)}\right) \le t \le\frac{\log(n)}{n}\tag{5} $$ Comparando $(1)$ y $(3)$ da $$ \begin{align} \frac{\log(\log(n)/n)}{\log(n)/n}-\frac{\log(t)}{t} &=n\frac{\log(\log(n))}{\log(n)}-\frac12+\frac1t\log\left(\frac{\sinh(t/2)}{t/2}\right)\\ &=\frac{1-\log(\xi)}{\xi^2}(\log(n)/n-t)\tag{6} \end{align} $$ para algunos $\xi$ entre $\frac{\log(n)}{n}\left(1-\frac{\log(\log(n))}{\log(n)}\right)$ y $\frac{\log(n)}{n}$ .

$(6)$ dice que $$ \begin{align} \log(n)/n-t &=\frac{\xi^2}{1-\log(\xi)}\left(n\frac{\log(\log(n))}{\log(n)}-\frac12+\frac1t\log\left(\frac{\sinh(t/2)}{t/2}\right)\right)\\ &=\frac{\log(\log(n))}{n}+O\left(\frac{\log(\log(n))^2}{n\log(n)}\right)\tag{7} \end{align} $$ Desde $x=e^{-t}$ tenemos que $x=1-t+O\left(\frac{\log(n)^2}{n^2}\right)$ y por lo tanto, $$ \frac{n}{\log(\log(n))}\left(1-x-\frac{\log(n)}{n}\right) =-1+O\left(\frac{\log(\log(n))}{\log(n)}\right)\tag{8} $$ La conclusión deseada se desprende de $(8)$ .

Obsérvese que hemos evitado utilizar la notación big-O hasta $(7)$ donde era casi necesario por el uso del teorema del valor medio.


Investigación más cercana:

Comparación de los errores en $(3)$ y $(4)$ que el rendimiento que $\frac{\log(n)}{n} \left(1-\frac{\log(\log(n))}{\log(n)}\right)$ es $\log(n)$ veces más cerca de $t$ que es $\frac{\log(n)}{n}$ . Por lo tanto, la interpolación arroja que una estimación más precisa sería $$ t\doteq\frac{\log(n)}{n}\left(1-\frac{\log(\log(n))}{1+\log(n)}\right)\tag{9} $$ Utilizando $(9)$ , obtenemos que $$ \frac{n}{\log(\log(n))}\left(1-x-\frac{\log(n)}{n}\right)+1 \doteq\frac1{1+\log(n)}\tag{10} $$

4voto

Romulo Ceccon Puntos 188

Me gustaría publicar aquí una respuesta separada en la que utilizaré un método muy diferente para obtener el resultado. La búsqueda de este método fue impulsada por este comentario sobre la pregunta anterior en la que el OP pide un límite de la forma $f(n) \leq a_n \leq g(n)$ con $f(n),g(n) \to 1$ como $n \to \infty$ . El límite que obtuve resultó ser suficiente no sólo para esa pregunta sino también para ésta.

Algunas desigualdades para la función exponencial.

En esta respuesta robjohn utiliza la desigualdad de Bernoulli para establecer la monotonicidad de algunas secuencias conocidas que convergen a $e$ . Usando esta técnica demostraré que

Si $y$ se fija con $0 < y < n$ entonces $$ \left(1-\frac{y}{n}\right)^n \text{ increases monotonically to } e^{-y} \tag{1} $$ y si $y>0$ es fijo, entonces $$ \left(1-\frac{y}{n+y}\right)^n \text{ decreases monotonically to } e^{-y} \tag{2} $$ como $n \to \infty$ .

Los límites se pueden establecer de la forma habitual, así que me limitaré a mostrar la monotonicidad.

Tenemos

$$ \begin{align} \frac{\left(1-\frac{y}{n+1}\right)^{n+1}}{\left(1-\frac{y}{n}\right)^n} &= \left(\frac{n+1-y}{n+1}\right)^{n+1} \left(\frac{n}{n-y}\right)^n \\ &= \frac{n-y}{n} \left(\frac{n+1-y}{n+1} \cdot \frac{n}{n-y}\right)^{n+1} \\ &= \frac{n-y}{n} \left(1 + \frac{y}{(n-y)(n+1)}\right)^{n+1} \\ &> \frac{n-y}{n} \left(1 + \frac{y(n+1)}{(n-y)(n+1)}\right) \\ &= 1, \end{align} $$

demostrando la primera afirmación, y

$$ \begin{align} \frac{\left(1-\frac{y}{n+y}\right)^n}{\left(1-\frac{y}{n+1+y}\right)^{n+1}} &= \left(\frac{n}{n+y}\right)^n \left(\frac{n+1+y}{n+1}\right)^{n+1} \\ &= \frac{n+y}{n} \left(\frac{n}{n+y} \cdot \frac{n+1+y}{n+1}\right)^{n+1} \\ &= \frac{n+y}{n} \left(1 - \frac{y}{(n+y)(n+1)}\right)^{n+1} \\ &> \frac{n+y}{n} \left(1 - \frac{y(n+1)}{(n+y)(n+1)}\right) \\ &= 1, \end{align} $$

probando el segundo.

Acotar la raíz positiva.

Dejemos que $x$ sea una raíz de la ecuación $x^n + x - 1 = 0$ con $0 < x < 1$ cuya existencia está garantizada por el teorema del valor intermedio. Sea

$$ x = 1 - \frac{y}{n}, $$

para que $0 < y < n$ . Entonces tenemos

$$ \begin{align} 0 &= \left(1-\frac{y}{n}\right)^n + 1 - \frac{y}{n} - 1 \\ &= \left(1-\frac{y}{n}\right)^n - \frac{y}{n} \\ &< e^{-y} - \frac{y}{n} \end{align} $$

por $(1)$ . Reordenando esto se obtiene

$$ ye^y < n $$

lo que implica que

$$ y < W(n) $$

y por lo tanto

$$ x > 1 - \frac{W(n)}{n}. \tag{3} $$

Del mismo modo, dejemos que

$$ x = 1 - \frac{y}{n+y} $$

para que $y>0$ . Tenemos

$$ \begin{align} 0 &= \left(1-\frac{y}{n+y}\right)^n + 1 - \frac{y}{n+y} - 1 \\ &= \left(1-\frac{y}{n+y}\right)^n - \frac{y}{n+y} \\ &> e^{-y} - \frac{y}{n+y} \end{align} $$

por $(2)$ de lo que se deduce que

$$ ye^y > n+y > n. $$

Así,

$$ y > W(n) $$

y así

$$ x < 1 - \frac{W(n)}{n + W(n)}. \tag{4} $$

Combinando $(3)$ y $(4)$ obtenemos

$$ 1 - \frac{W(n)}{n} < x < 1 - \frac{W(n)}{n + W(n)}. \tag{5} $$

Calcular el límite deseado.

Podemos simplificar el lado derecho de $(5)$ ligeramente aplicando la desigualdad $(1+t)^{-1} \geq 1-t$ válido para $t > -1$ , para conseguir

$$ \begin{align} x &< 1 - \frac{W(n)}{n + W(n)} \\ &= 1 - \frac{W(n)}{n} \cdot \frac{1}{1 + \frac{W(n)}{n}} \\ &\leq 1 - \frac{W(n)}{n} \left(1 - \frac{W(n)}{n}\right) \\ &= 1 - \frac{W(n)}{n} + \frac{W(n)^2}{n^2}. \end{align} $$

Utilizando esto, la desigualdad $(5)$ se convierte en

$$ 1 - \frac{W(n)}{n} < x < 1 - \frac{W(n)}{n} + \frac{W(n)^2}{n^2}. \tag{6} $$

Vamos a controlar a los Lambert $W$ función aquí. En esta respuesta Derivé las desigualdades

$$ \log n - \log\log n < W(n) < \log n - \log\log n - \log\left(1 - \frac{\log\log n}{\log n}\right) \tag{7} $$

y $W(n) < \log n$ que se mantienen para $n>e$ .

Sustituyendo el primero de ellos, el lado izquierdo de $(6)$ se convierte en

$$ \begin{align} x &> 1 - \frac{W(n)}{n} \\ &> 1 - \frac{\log n}{n} + \frac{\log\log n}{n} + \frac{\log\left(1 - \frac{\log\log n}{\log n}\right)}{n}, \end{align} $$

que se reordena a

$$ \frac{n}{\log\log n} \left(1-x-\frac{\log n}{n}\right) < -1 - \frac{\log\left(1-\frac{\log\log n}{\log n}\right)}{\log\log n}. \tag{8} $$

Como reflejo de esto, el lado derecho de $(6)$ se convierte en

$$ \begin{align} x &< 1 - \frac{W(n)}{n} + \frac{W(n)^2}{n^2} \\ &< 1 - \frac{\log n}{n} + \frac{\log\log n}{n} + \frac{(\log n)^2}{n^2}, \end{align} $$

para que

$$ \frac{n}{\log\log n} \left(1-x-\frac{\log n}{n}\right) > -1 - \frac{(\log n)^2}{n \log\log n}. \tag{9} $$

Combinando $(8)$ y $(9)$ rinde

$$ - \frac{(\log n)^2}{n \log\log n} < \frac{n}{\log\log n} \left(1-x-\frac{\log n}{n}\right) + 1 < - \frac{\log\left(1-\frac{\log\log n}{\log n}\right)}{\log\log n}. $$

Aprendí este método de esta respuesta de Qiaochu Yuan .

2voto

Romulo Ceccon Puntos 188

Primero fijemos $x = 1 - y$ , por lo que estamos buscando el cero positivo de

$$ p(y) = (1-y)^n - y. $$

Sabemos por sus preguntas anteriores que $y \sim \frac{\log n}{n}$ como $n \to \infty$ para que

$$ \begin{align} (1-y)^n &= \exp\left[n \log(1-y)\right] \\ &= \exp\left[-ny + O\left(\frac{(\log n)^2}{n}\right)\right] \\ &= e^{-ny} \left[1 + O\left(\frac{(\log n)^2}{n}\right)\right]. \tag{1} \end{align} $$

De ello se deduce que $e^{ny}(1-y)^n$ es casi $1$ cuando $n$ es grande, por lo que podríamos suponer que la solución de la ecuación

$$ (1-y)^n - y = 0 $$

se comporta como la solución de la ecuación

$$ e^{-ny} - y = 0 \tag{2} $$

cuando $n$ es grande. De hecho $(2)$ tiene una solución explícita en términos de la ley de Lambert $W$ función: $y = W(n)/n$ y esto es aproximadamente $\log(n)/n - \log\log(n)/n$ . Ahora intentemos cuantificar lo que significa "se comporta muy parecido" en este caso concreto.

La ecuación

$$ \lambda e^{-ny} - y = 0 $$

tiene una solución

$$ y = \frac{W(\lambda n)}{n}, $$

por lo que al tomar $\lambda = e^{ny}(1-y)^n$ vemos que la ecuación

$$ e^{-ny}\Bigl[e^{ny}(1-y)^n\Bigr] - y = 0 $$

tiene una solución implícita

$$ y = \frac{W\Bigl[n e^{ny}(1-y)^n\Bigr]}{n}. \tag{3} $$

Aquí necesitamos dos hechos. Primero, es una consecuencia de $(1)$ que

$$ n e^{ny}(1-y)^n = n + O(\log n)^2. $$

En segundo lugar, es una consecuencia de mi respuesta aquí que

$$ W(x) = \log x - \log\log x + O\left(\frac{\log\log x}{\log x}\right) \tag{4} $$

como $x \to \infty$ . De ello se desprende que

$$ \begin{align} &W\Bigl[n e^{ny}(1-y)^n\Bigr] \\ &\quad= W\Bigl[n + O(\log n)^2\Bigr] \\ &\quad= \log\Bigl[n + O(\log n)^2\Bigr] - \log\log\Bigl[n + O(\log n)^2\Bigr] + O\left(\frac{\log\log\Bigl[n + O(\log n)^2\Bigr]}{\log\Bigl[n + O(\log n)^2\Bigr]}\right). \end{align} $$

Calculamos

$$ \begin{align} \log\Bigl[n + O(\log n)^2\Bigr] &= \log n + \log\left[1 + O\left(\frac{(\log n)^2}{n}\right)\right] \\ &= \log n + O\left(\frac{(\log n)^2}{n}\right) \end{align} $$

y de manera similar

$$ \log\log\Bigl[n + O(\log n)^2\Bigr] = \log\log n + O\left(\frac{\log n}{n}\right), $$

para que

$$ W\Bigl[n e^{ny}(1-y)^n\Bigr] = \log n - \log\log n + O\left(\frac{\log\log n}{\log n}\right). $$

Sustituyendo esto en $(3)$ rinde

$$ y = \frac{\log n}{n} - \frac{\log\log n}{n} + O\left(\frac{\log\log n}{n\log n}\right), $$

para que

$$ a_n = 1 - \frac{\log n}{n} + \frac{\log\log n}{n} + O\left(\frac{\log\log n}{n\log n}\right). $$

Podemos reorganizar esto para ver que

$$ \frac{n}{\log\log n}\left(1 - a_n - \frac{\log n}{n}\right) = -1 + O\left(\frac{1}{\log n}\right). $$


De hecho, se puede demostrar que $W\Bigl[n + O(\log n)^2\Bigr]$ comparte la misma expansión asintótica con $W(n)$ por lo que podemos encontrar tantos términos como queramos de la expansión asintótica para $a_n$ . Por ejemplo,

$$ a_n = 1 - \frac{1}{n}\left(L_1 - L_2 + \frac{L_2}{L_1} + \frac{(-2 + L_2)L_2}{L_1^2} + O\left(\frac{L_2}{L_1}\right)^3\right) $$

como $n \to \infty$ , donde $L_1 = \log n$ y $L_2 = \log\log n$ . (Véase la ecuación (15) en este artículo de MathWorld .)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X