Aunque para los números naturales es cierto que la exponenciación se define como multiplicación iterada, esto no es cierto en general. Incluso en los números reales, ¿qué significa "multiplicar $x$ por sí mismo $\sqrt\pi$ tiempos"?
La exponenciación cardinal tiene una definición. Podemos demostrar que, para exponentes finitos, coincide de hecho con la multiplicación repetida, y se podría argumentar que la definición tiene tanto sentido que debería considerarse multiplicación repetida. Principalmente porque debería haber una diferencia entre multiplicar algo por sí mismo finitamente muchas veces, e infinitamente muchas veces.
La definición de $\kappa^\lambda$ es la cardinalidad del conjunto de todas las funciones de un conjunto $L$ en un conjunto $K$ tal que $|L|=\lambda$ y $|K|=\kappa$ .
Así que $1^{\aleph_0}$ es el conjunto de todas las funciones de $\Bbb N$ en $\{0\}$ . ¿Cuántas funciones como ésta puede encontrar? Y recuerda que una función tiene que estar definida en todos de $\Bbb N$ . Así que sí, sólo hay uno.
Por el contrario, $\aleph_0^{\aleph_0}$ es el conjunto de todas las funciones de $\Bbb N$ a sí mismo, y podemos probar que hay incontables. Así que ciertamente no es $\aleph_0$ de nuevo. Pero esto también puede decirse de $2^k$ vs. $2^{\aleph_0}$ . Es $1$ que es el de impar aquí, no $\aleph_0$ .
¿Qué falla? Podrías esperar que la exponenciación fuera continua de alguna manera.
¿Por qué? No hay ninguna razón para que sea continuo. Es $x^y$ continua en función de dos variables reales? Antes de decir que sí, recuerde que en realidad no es continua en $(0,0)$ . Por ejemplo, los logaritmos complejos son continuos, pero hay que elegir una rama y eliminarla del dominio para que la función funcione.
No hay razón para esperar que todo sea continuo. ¿Por qué toda la aritmética cardinal debería ser continua?