Re 1., la convergencia absoluta se utiliza para ser capaz de escribir el producto de la suma como la suma de los productos de los términos. Si usted tiene dos secuencias de $(a_n),\, (b_k)$ de los números complejos, y la serie de $A = \sum_{n=0}^\infty a_n$ $B = \sum_{k=0}^\infty b_k$ son convergentes, se puede escribir el $A\cdot B$ como una serie utilizando el$a_n$$b_k$? Ya no es natural el pedido en el conjunto de índice $\mathbb{N}\times\mathbb{N}$ del conjunto de todos los productos de $a_nb_k$, es difícil, al menos para expresar $A\cdot B$ como una serie de términos construidos a partir de los productos individuales si la convergencia es condicional. Pero si la convergencia es absoluta, el orden de la suma no importa, de todos los órdenes de dar la misma suma. Aquí, con $a_n = (p^n)^{-s}$ $b_k = (q^k)^{-s}$ para distintos números primos $p,\,q$, además de la habitual de Cauchy producto de la serie, tenemos un algo natural de pedidos por parte de los productos de las bases de la $p^nq^k$.
Re 2., El resultado se usa en el paso $\mathbf{IV}$, a pesar de un rápido vistazo parece indicar que un resultado más débil, que $\zeta(s) - \frac{1}{s-1}$ se extiende holomorphically a $\Re s > 1-\varepsilon$ algunos $\varepsilon > 0$ sería suficiente. Pero dado que la prueba de inmediato los rendimientos de la extensión de a$\Re s > 0$, ¿por qué el estado de algo más débil?
Re 3., de la desigualdad
$$e^{\vartheta(2n) - \vartheta(n)} \leqslant 2^{2n},$$
se obtiene
$$\vartheta(2n) - \vartheta(n) \leqslant \log 2\cdot (2n).\tag{1}$$
La desigualdad objetivo es
$$\vartheta(x) - \vartheta(x/2) \leqslant C\cdot x\tag{2}$$
para todos los $x > 0$. Para $x$ de la particular forma de $x = 2n,\; n \in \mathbb{Z}^+$, la desigualdad es sólo $(1)$. Para general $x$, elija $n = \lfloor x/2\rfloor$ obtener
$$\begin{align}
\vartheta(x) - \vartheta(x/2) &= \vartheta(2n) - \vartheta(n) + \left(\vartheta(x) - \vartheta(2n)\right) + \left(\vartheta(n) - \vartheta(x/2)\right)\\
&\leqslant \log 2\cdot (2n) + O(\log x) + O(\log x)\\
&\leqslant C\cdot x
\end{align}$$
la absorción de la posible logarítmica contribuciones en la constante de $x \geqslant x_0$. El $x_0$ depende de la constante de $C$, debe tener $\log x \leqslant (C - \log 2)x$ [debido a $\log x$ es el máximo valor posible de $\left(\vartheta(x) -\vartheta(2n)\right) - \left(\vartheta(x/2) - \vartheta(n)\right)$].
Teniendo eso, que uno escribe
$$\vartheta(x) = \left(\vartheta(x) - \vartheta(x/2)\right) + \left(\vartheta(x/2) - \vartheta(x/4)\right) + \dotsb + \left(\vartheta(x/2^r) - \vartheta(x/2^{r+1})\right) + \vartheta(x/2^{r+1})$$
y cada diferencia está delimitado por $C\cdot \frac{x}{2^k}$, mientras que el último término es delimitada por $\vartheta(x_0)$, así que usted consigue
$$\vartheta(x) \leqslant \sum_{k=0}^r C\cdot \frac{x}{2^k} + \vartheta(x_0) \leqslant 2Cx + \vartheta(x_0).$$
Explicación de la parte $(\mathbf{IV})$:
De Euler producto, por termwise diferenciación logarítmica para $\Re s > 1$, se obtiene
$$-\frac{\zeta'(s)}{\zeta(s)} = \sum_{p} \frac{\log p}{p^s-1}.$$
Termwise diferenciación es legítimo porque el local convergencia uniforme del producto, como para la serie. Entonces, por $\frac{1}{p^s-1} = \frac{1}{p^s} + \frac{1}{p^s(p^s-1)}$, y la división de la suma, se obtiene
$$-\frac{\zeta'(s)}{\zeta(s)} = \Phi(s) + \underbrace{\sum_p \frac{\log p}{p^s(p^s-1)}}_{\alpha(s)}.$$
Reordenando la ecuación, obtenemos
$$\Phi(s) = -\frac{\zeta'(s)}{\zeta(s)} - \alpha(s),\tag{3}$$
primero para $\Re s > 1$. Pero por $(\mathbf{II})$, $\zeta(s)$ se extiende meromorphically a $\Re s > 0$, con un simple poste de $s = 1$ y no del otro polo. Por lo tanto, $-\zeta'(s)/\zeta(s)$ es meromorphic en $\Re s > 0$, con un simple poste de $s = 1$, y simple los postes en los ceros de $\zeta$$\Re s > 0$.
La suma
$$\sum_p \frac{\log p}{p^s(p^s-1)}$$
converge (localmente uniformemente) por $\Re s > 1/2$, desde
$$\left\lvert \frac{\log p}{p^s(p^s-1)}\right\rvert \leqslant \frac{\log p}{\lvert p^s\rvert (\lvert p^s\rvert -1)} \leqslant \frac{2\log p}{\lvert p^s\rvert^2} = \frac{2\log p}{p^{2\Re s}}$$
para $p$ lo suficientemente grande como para que $\lvert p^s\rvert - 1 \geqslant \lvert p^s\rvert/2$ ( $\Re s > 1/2$ , lo que significa $p > 4$), y es bien sabido que $\sum \frac{\log n}{n^t}$ converge para $t > 1$.
Así que en el lado derecho de la $(3)$, tenemos una función de meromorphic en $\Re s > 1/2$, de ahí que podamos extender la mano izquierda - $\Phi$ - meromorphically a la mitad de avión $\Re s > 1/2$, definiéndolo como el lado derecho para $1/2 < \Re s \leqslant 1$. Desde $\alpha(s)$ no tiene polos, polos de $\Phi$ en que la mitad de plano son exactamente los polos de $-\zeta'(s)/\zeta(s)$.
Cuando una función de meromorphic $f$ tiene una simple polo en $z_0$, es decir, se tiene una representación
$$f(z) = \frac{a}{z-z_0} + g(z)$$
en un pinchazo en un barrio de $z_0$ con un holomorphic $g$, luego tenemos a $\lim\limits_{z\to z_0} (z-z_0)f(z) = a$ (el residuo de $f$$z_0$). Cuando una función de meromorphic $f$ tiene un cero de orden $k$$z_0$, entonces su derivada logarítmica $f'/f$ tiene una simple poste con el residuo$k$$z_0$:
$$\begin{align}
f(z) &= (z-z_0)^k\cdot g(z),\; g(z_0) \neq 0\\
\rightsquigarrow \frac{f'(z)}{f(z)} &= \frac{k(z-z_0)^{k-1}g(z) + (z-z_0)^kg'(z)}{(z-z_0)^kg(z)} = \frac{k}{z-z_0} + \frac{g'(z)}{g(z)}.
\end{align}$$
Del mismo modo, si $f$ tiene un polo de orden $k$$z_0$, entonces la derivada logarítmica tiene una simple poste con el residuo$-k$$z_0$.
La uniformidad de la expresión, podemos decir que $f$ tiene un cero (o polo) de la orden $0$ $z_0$ si $f$ es holomorphic en $z_0$$f(z_0) \neq 0$, y por el abuso del lenguaje, $f$ tiene una simple poste con el residuo $0$ en los puntos de holomorphy.
Ya en $(3)$ tenemos el negativo de la derivada logarítmica de $\zeta(s)$, los signos flip, y el simple polo de $\zeta$ $s = 1$ conduce a un simple poste con el residuo$1$$\Phi$$s = 1$, lo $\lim\limits_{\varepsilon \to 0} \varepsilon \Phi(1+\varepsilon) = 1$ - la convergencia no se limita a acercarse a $1$ a través de positivos $\varepsilon$ per se, pero en la siguiente desigualdad, $\varepsilon > 0$ es necesario. Los otros dos límites son por el mismo motivo, un cero de orden $\mu$ resp. $\nu$ $\zeta(s)$ produce un simple poste con el residuo $-\mu$ resp. $-\nu$ para el negativo de la derivada logarítmica. Y por último, la simetría $\zeta(\overline{s}) = \overline{\zeta(s)}$ significa que si $\zeta(s)$ tiene un cero de orden $\mu$$1 + i\alpha,\; \alpha \in \mathbb{R}\setminus\{0\}$, entonces también tiene un cero de orden $\mu$$1 - i\alpha$.
Por explícita suma, se obtiene la igualdad
$$\sum_{r=-2}^2 \binom{4}{2+r} \Phi(1+\varepsilon + ir\alpha) = \sum_p \frac{\log p}{p^{1+\varepsilon}}\left(p^{i\alpha/2} + p^{-i\alpha/2}\right)^4,$$
y cada término de la suma de la derecha es no negativo, por lo tanto la suma es $\geqslant 0$. Multiplicando con $\varepsilon > 0$ y tomando el límite de $\varepsilon \searrow 0$, se obtiene
$$0 \leqslant \lim_{\varepsilon\searrow 0} \sum_{r=-2}^2 \binom{4}{2+r} \varepsilon\Phi(1+\varepsilon + ir\alpha) = 6 - 8\mu - 2\nu,$$
y desde $\mu,\, \nu \geqslant 0$ porque $s = 1$ es el único polo de $\zeta(s)$, que la desigualdad sólo se puede mantener si $\mu = 0$, lo $\zeta(1 + i\alpha) \neq 0$.
Parte $(\mathbf{VI})$:
Tienes razón, el $xx$ es un error y debería ser $x$. Ya que, ciertamente,$\pi(y) \leqslant y$, en la última línea se puede sustituir $-\pi(x^{1-\varepsilon})$ $O(x^{1-\varepsilon})$ obtener
$$\vartheta(x) \geqslant (1-\varepsilon)\log x \left(\pi(x) + O(x^{1-\varepsilon})\right).$$
No podemos tomar el límite de $\varepsilon \searrow 0$ en que la desigualdad, ya que en el límite perderíamos la garantía de que el $O(x^{1-\varepsilon})$ plazo crece más lento de lo $\frac{x}{\log x}$.
Junto con $\vartheta(x) \sim x$, la desigualdad de $\vartheta(x) \leqslant \pi(x)\log x$ rendimientos
$$\liminf_{x\to\infty} \frac{\pi(x)\log x}{x} \geqslant \lim_{x\to\infty}\frac{\vartheta(x)}{x} = 1.$$
La otra desigualdad, $\vartheta(x) \geqslant (1-\varepsilon)\log x\left(\pi(x) + O(x^{1-\varepsilon})\right)$, los rendimientos de los
$$\frac{\pi(x)\log x}{x} \leqslant \frac{\vartheta(x)}{(1-\varepsilon)x} + O\left(\frac{\log x}{x^\varepsilon}\right)$$
y, desde $\lim_{x\to\infty}\frac{\log x}{x^\varepsilon} = 0$ todos los $\varepsilon > 0$,
$$\limsup_{x\to\infty} \frac{\pi(x)\log x}{x} \leqslant \frac{1}{1-\varepsilon}\lim_{x\to\infty} \frac{\vartheta(x)}{x} + \lim_{x\to\infty}O\left(\frac{\log x}{x^\varepsilon}\right) = \frac{1}{1-\varepsilon}.$$
Ahora tomamos el límite de $\varepsilon \searrow 0$ a la conclusión de
$$\limsup_{x\to\infty} \frac{\pi(x)\log x}{x} \leqslant 1.$$
Personalmente, yo prefiero salir de la $\varepsilon$, y argumentando
$$\begin{align}
\pi(x) &= \pi(y) + \sum_{y < p \leqslant x} 1\\
&\leqslant \pi(y) + \sum_{y < p \leqslant x}\frac{\log p}{\log y}\\
&\leqslant y + \frac{1}{\log y}\vartheta(x)\\
\Rightarrow \frac{\pi(x)\log x}{x} &\leqslant \frac{y\log x}{x} + \frac{\log x}{\log y}\cdot \frac{\vartheta(x)}{x}
\end{align}$$
para $1 < y < x$, y, a continuación, elegir (para $x \geqslant 3$) $y = \dfrac{x}{(\log x)^2}$ para obtener
$$\frac{\vartheta(x)}{x} \leqslant \frac{\pi(x)\log x}{x} \leqslant \frac{1}{\log x} + \frac{\log x}{\log x - 2 \log \log x}\cdot \frac{\vartheta(x)}{x}.$$