Yo podría mostrar que $\|\cdot\|_p$ es la disminución en $p$$p\in (0,\infty)$$\mathbb{R}^n$. Siguientes son los detalles.
Deje $0<p<q$. Tenemos que mostrar que $\|x\|_p\ge \|x\|_q$ donde $x\in \mathbb{R}^n$.
Si $x=0$, entonces es obviamente cierto. De lo contrario vamos a $y_k=|x_k|/\|x\|_q$. A continuación, $y_k\le 1$ todos los $k=1,\dots,n$. Por lo tanto,$y_k^p\ge y_k^q$, y, por tanto,$\|y\|_p\ge 1$, lo que implica $\|x\|_p\ge \|x\|_q$.
El mismo argumento funciona incluso para $x\in \mathbb{R}^{\mathbb{N}}$.
Me pregunto si el resultado es cierto para funciones de $f$ en una medida general del espacio de $(\mathcal{X}, \mu)$. La misma técnica no funciona en general.
Sé que ciertamente no es cierto en el caso de al $\mu(\mathcal{X})<\infty$, como en este caso,$\|f\|_p\le \|f\|_q\cdot \mu(\mathcal{X})^{(1/p)-(1/q)}$$p<q$, por lo que, en particular, si $\mu$ es una medida de probabilidad, a continuación, en realidad, $\|f\|_p$ es el aumento en el $p$.
La pregunta es la siguiente. Si $f$ es una función con valores reales en una medida de espacio $(\mathcal{X}, \mu)$ e si $\|f\|_p$ está definido para todos los $p>0$, ¿hay algún resultado como $\|f\|_p$ es la disminución en $p$?