Como señala Ross Millikan, una función $p(x)$ obedece a una ley de potencia si
$$p(x) \propto x^\alpha, \ \ \alpha \in \mathbb{R}$$
Hay muchas cosas en el mundo real ejemplos de funciones de ley de potencia. Por ejemplo, La gravedad newtoniana obedece a una ley de potencia ( $F = G \frac{m_1 m_2}{r^2}$ , donde $\alpha=2$ en este caso), Ley de Coulombs del potencial electrostático ( $F = \frac{Q_1 Q_2}{4 \pi r^2 \varepsilon_0}$ , de nuevo $\alpha=2$ ), los exponentes críticos de las transiciones de fase cerca del punto crítico ( $C \propto |T_c - T|^\alpha$ ), magnitud del terremoto frente a la frecuencia (por eso medimos los terremotos en un Escala Ricther ) y el longitud de la costa de Gran Bretaña ( $L(G) = M G^{1-D}$ , donde $1-D$ es el exponente de la ley de potencia), por nombrar sólo algunos.
Hay muchas formas de generar distribuciones de ley de potencia. Reed y Hughes muestran que pueden ser generados a partir de procesos exponenciales muertos, Simkin y Roychowdhury dar una visión general de cómo las leyes de la potencia han sido redescubiertas muchas veces y Brian Hayes ofrece un buen artículo sobre las "colas gordas". Véase Mitzenmacher para una revisión de otros modelos generativos para crear distribuciones de ley de potencia.
De las formas de generar distribuciones de ley de potencia, creo que la más descriptiva de por qué las leyes de potencia son tan omnipresentes es la estabilidad de sumas de variables aleatorias idénticas e independientemente distribuidas. Si $X_k$ son variables aleatorias idénticas e independientemente distribuidas, entonces su suma, $S$ convergerá a una distribución estable:
$$ S_n = \sum_{k=0}^{n-1} X_k $$
En condiciones adecuadas, la variable aleatoria tiene colas de ley de potencia, es decir:
$$ \Pr\{ S > x \} \propto x^{-\alpha}, \ \ x \to \infty $$
alternativamente podemos hablar de que es función de densidad de probabilidad (abusando un poco de la notación):
$$ \Pr\{ S = x \} \propto x^{-(\alpha+1) }, \ \ x \to \infty $$
para algunos $\alpha \in (0, 2]$ . La única excepción es cuando las variables aleatorias $X_k$ tienen segundo momento finito (o varianza finita si lo prefiere), en cuyo caso $S$ converge a un Distribución normal (que, por cierto, también es una distribución estable).
La clase de distribuciones que son estables se llaman Levy $\alpha$ -estable . Ver Nolan's primer capítulo de su próximo libro para una introducción.
Por cierto, esta es también la razón por la que a menudo vemos leyes de potencia con exponente en el rango de $(1,3]$ . Como $\alpha \to 1$ la distribución ya no es renormalizable (es decir $\int_{-\infty}^{\infty} x^{-\alpha} dx \to \infty$ como $\alpha \to 1$ )) mientras que cuando $\alpha \ge 3$ la distribución tiene varianza finita y se aplican las condiciones para que sea una distribución Normal.
La estabilidad es la razón por la que creo que las leyes de la energía son tan frecuentes en la naturaleza: Son las distribuciones límite de los procesos aleatorios, independientemente de los detalles de grano fino, cuando se combinan los procesos aleatorios. Ya se trate de atentados terroristas, de la distribución de las palabras, del tamaño de los cúmulos de galaxias, de la conectividad de las neuronas o de las redes de amigos, en condiciones convenientemente débiles, si son el resultado de la adición de algunos procesos subyacentes, convergerán a una distribución de ley de potencia, ya que es la distribución límite y estable.