Estoy tratando de entender las intuiciones que hay detrás de trabajar con números muy grandes. En concreto, me refiero a números de la forma $a^b$ donde $a > 10,000$ et $b > 10,000$ y en general $a$ et $b$ son pequeños, pero $a^b$ tiene millones de dígitos. Obviamente, calcular el número es inviable, pero aun así me gustaría determinar cosas sobre ellos.
Me interesan especialmente las ideas o reglas para evaluar cuál de dos números grandes es mayor. Creo que quiero usar logaritmos de alguna manera, pero siempre me han confundido un poco, así que no veo muy bien hacia dónde ir.
En términos más generales, me encantaría escuchar una discusión más genérica sobre cómo se puede trabajar con números tan grandes fácilmente, sacrificando la precisión, pero no la exactitud.