36 votos

¿Cómo puedo demostrar analíticamente que la división aleatoria de una cantidad da lugar a una distribución exponencial (de, por ejemplo, los ingresos y la riqueza)?

En esta corriente artículo en SCIENCE se propone lo siguiente:

Supongamos que divides al azar 500 millones de ingresos entre 10.000 personas. Sólo hay una manera de dar a todos una parte igual, 50.000. Así que si usted está repartiendo las ganancias al azar, la igualdad es extremadamente improbable. Pero hay innumerables maneras de dar a unas pocas personas una gran cantidad de dinero y a muchas personas un poco o nada. De hecho, teniendo en cuenta todas las formas de repartir los ingresos, la mayoría de ellas producen una distribución exponencial exponencial de los ingresos.

Lo he hecho con el siguiente código R que parece reafirmar el resultado:

library(MASS)

w <- 500000000 #wealth
p <- 10000 #people

d <- diff(c(0,sort(runif(p-1,max=w)),w)) #wealth-distribution
h <- hist(d, col="red", main="Exponential decline", freq = FALSE, breaks = 45, xlim = c(0, quantile(d, 0.99)))

fit <- fitdistr(d,"exponential")
curve(dexp(x, rate = fit$estimate), col = "black", type="p", pch=16, add = TRUE)

enter image description here

Mi pregunta
¿Cómo puedo demostrar analíticamente que la distribución resultante es efectivamente exponencial?

Anexo
Gracias por sus respuestas y comentarios. He pensado en el problema y he llegado al siguiente razonamiento intuitivo. Básicamente sucede lo siguiente (Cuidado: simplificación excesiva): Vas a lo largo de la cantidad y lanzas una moneda (sesgada). Cada vez que sacas, por ejemplo, cara, divides la cantidad. Distribuyes las particiones resultantes. En el caso discreto el lanzamiento de la moneda sigue una distribución binomial, las particiones se distribuyen geométricamente. Los análogos continuos son la distribución de Poisson y la distribución exponencial, respectivamente. (Por el mismo razonamiento también queda intuitivamente claro por qué la distribución geométrica y la exponencial tienen la propiedad de no tener memoria - porque la moneda tampoco tiene memoria).

3 votos

Si se reparte el dinero de uno en uno, hay muchas formas de distribuirlo uniformemente y muchas más de distribuirlo casi uniformemente (por ejemplo, una distribución casi normal y con una media de $50000$ y una desviación estándar cercana a $224$ )

0 votos

@Henry: Podrías describir un poco más este procedimiento. Especialmente, ¿a qué te refieres con "uno por uno"? Tal vez incluso podrías proporcionar tu código. Gracias.

0 votos

Vonjd: Empieza con 500 millones de monedas. Reparte cada moneda de forma independiente y aleatoria entre 10 mil individuos con igual probabilidad. Sume el número de monedas que recibe cada individuo.

27voto

higgsss Puntos 606

Para simplificar el problema, consideremos el caso en el que los valores permitidos de la cuota de cada persona son discretos, por ejemplo, enteros. De forma equivalente, también se puede imaginar la partición del "eje de la renta" en intervalos igualmente espaciados y la aproximación de todos los valores que caen en un intervalo determinado por el punto medio.

Diciendo que los ingresos totales son $X$ El $s$ -aquel valor permitido como $x_{s}$ el número total de personas como $N$ y, por último, el número de personas con acciones de $x_{s}$ como $n_{s}$ se deben cumplir las siguientes condiciones: \begin{equation} C_{1} (\{n_{s}\})\equiv\sum_{s} n_{s} - N = 0, \end{equation} y \begin{equation} C_{2} (\{n_{s}\})\equiv \sum_{s} n_{s} x_{s} - X = 0. \end{equation}

Obsérvese que muchas formas diferentes de dividir la cuota pueden representar la misma distribución. Por ejemplo, si consideramos dividir \$4 between two people, giving \$ 3 a Alice y \$1 a Bob y viceversa, ambos darían distribuciones idénticas. Como la división es aleatoria, la distribución con el máximo número de formas correspondientes de dividir la parte tiene la mejor oportunidad de ocurrir.

Para obtener dicha distribución, hay que maximizar \begin{equation} W(\{n_{s}\}) \equiv \frac{N!}{\prod_{s} n_{s}!}, \end{equation} bajo las dos restricciones indicadas anteriormente. El método de los multiplicadores de Lagrange es un enfoque canónico para ello. Además, se puede optar por trabajar con $\ln W$ en lugar de $W$ mismo, como " $\ln$ "es una función monótona creciente. Es decir, \begin{equation} \frac{\partial \ln W}{\partial n_{s}} = \lambda_{1} \frac{\partial C_{1}}{\partial n_{s}} + \lambda_{2} \frac{\partial C_{1}}{\partial n_{s}} = \lambda_{1} + \lambda_{2} x_{s}, \end{equation} donde $\lambda_{1,2}$ son multiplicadores de Lagrange. Obsérvese que según La fórmula de Stirling , \begin{equation} \ln n! \approx n\ln n - n, \end{equation} lo que lleva a \begin{equation} \frac{d\ln n!}{dn} \approx \ln n. \end{equation} Así, \begin{equation} \frac{\partial \ln W}{\partial n_{s}} \approx -\ln n_{s}. \end{equation} De ello se desprende que \begin{equation} n_{s} \approx \exp\big(-\lambda_{1} - \lambda_{2} x_{s}\big), \end{equation} que es una distribución exponencial. Se pueden obtener los valores de los multiplicadores de Lagrange utilizando las restricciones. A partir de la primera restricción, \begin{equation} \begin{split} N &= \sum_{s} n_{s} \approx \sum_{s} \exp\big(-\lambda_{1} - \lambda_{2} x_{s}\big)\\ &\approx \frac{1}{\Delta x} \int_{0}^{\infty} \exp\big(-\lambda_{1} - \lambda_{2} x\big) \,\,dx\\ &=\frac{1}{\lambda_{2}\Delta x}\exp\big(-\lambda_{1}\big), \end{split} \end{equation} donde $\Delta x$ es el espacio entre los valores permitidos. Del mismo modo, \begin{equation} \begin{split} X &= \sum_{s} n_{s}x_{s} \approx \sum_{s} x_{s}\,\exp\big(-\lambda_{1} - \lambda_{2} x_{s}\big)\\ &\approx \frac{1}{\Delta x} \int_{0}^{\infty} x\,\exp\big(-\lambda_{1} - \lambda_{2} x\big) \,\,dx\\ &=\frac{1}{\lambda_{2}^{2}\,\Delta x}\exp\big(-\lambda_{1}\big). \end{split} \end{equation} Por lo tanto, tenemos \begin{equation} \exp\big(-\lambda_{1}\big) = \frac{N^{2} \Delta x}{X}, \end{equation} y \begin{equation} \lambda_{2} = \frac{N}{X}. \end{equation} Que esto es realmente un máximo, en lugar de un mínimo o un punto de silla, se puede ver desde el Hessiano de $\ln W - \lambda_{1} C_{1} - \lambda_{2} C_{2}$ . Porque $C_{1,2}$ son lineales en $n_{s}$ es el mismo que el de $\ln W$ : \begin{equation} \frac{\partial^{2} \ln W}{\partial n_{s}^{2}} = -\frac{1}{n_{s}} < 0, \end{equation} y \begin{equation} \frac{\partial^{2} \ln W}{\partial n_{s}\partial n_{r}} = 0 \quad (s\neq r). \end{equation} Por lo tanto, el hessiano es cóncavo, y lo que hemos encontrado es efectivamente un máximo.

La función $W(\{n_{s}\})$ es realmente la distribución de las distribuciones. Para las distribuciones que típicamente observamos para estar cerca de la más probable, $W(\{n_{s}\})$ debería ser lo suficientemente estrecha. Se ve en el hessiano que esta condición equivale a $n_{s}\gg 1$ . (También es la condición para que la fórmula de Stirling sea fiable.) Por lo tanto, para ver realmente la distribución exponencial, las particiones en el eje de la renta (correspondientes a las franjas en el histograma de OP) deben ser lo suficientemente amplias como para que el número de personas en una partición sea mucho mayor que la unidad. Hacia la cola, donde $n_{s}$ tiende a cero, esta condición está siempre destinada al fracaso.

Nota: Así es exactamente como los físicos entienden el Distribución de Boltzmann en la mecánica estadística. La distribución exponencial es esencialmente exacta para este caso, ya que consideramos $N\sim 10^{23}$ .

1 votos

Gracias, por favor, echa un vistazo a la respuesta de Glen_b. ¿Es esto coherente con su respuesta?

2 votos

@vonjd ¡De nada! Creo que su respuesta es coherente con la mía. A mí me parece que está haciendo una analogía con el proceso de Poisson en el siguiente sentido: Considere un proceso de Poisson con el "intervalo de tiempo medio" de 50.000, y cuente 10.000 eventos. Entonces, en promedio, el "intervalo de tiempo total" es de 50.000 x 10.000 = 500 millones.

2 votos

@vonjd He actualizado mi respuesta. Sobre todo, he añadido la discusión sobre la condición de que la distribución que observamos típicamente es algo cercano a la distribución más probable.

17voto

AdamSane Puntos 1825

De hecho se puede demostrar que no es realmente exponencial, casi trivialmente:

Calcule la probabilidad de que una acción dada sea mayor que $500$ millones. Compárese con la probabilidad de que una variable aleatoria exponencial sea mayor que $500$ millones de dólares.

Sin embargo, no es demasiado difícil ver que para su ejemplo de brecha uniforme que debe estar cerca de exponencial.

Considere un Proceso de Poisson - donde los eventos ocurren al azar a lo largo de alguna dimensión. El número de eventos por unidad de intervalo tiene una distribución de Poisson, y el intervalo entre eventos es exponencial.

Si se toma un intervalo fijo, los sucesos de un proceso de Poisson que caen dentro de él se distribuyen uniformemente en el intervalo. Véase aquí .

[Sin embargo, tenga en cuenta que debido a que el intervalo es finito, simplemente no puede observar brechas más grandes que la longitud del intervalo, y las brechas casi tan grandes serán improbables (considere, por ejemplo, en un intervalo unitario - si ve brechas de 0,04 y 0,01, la siguiente brecha que vea no puede ser mayor que 0,95)].

Por lo tanto, aparte del efecto de restringir la atención a un intervalo fijo en la distribución de los huecos (que se reducirá para grandes $n$ el número de puntos en el intervalo), se esperaría que esos huecos se distribuyeran exponencialmente.

Ahora, en tu código, estás dividiendo el intervalo de la unidad colocando uniformes y luego encontrando los huecos en las estadísticas de orden sucesivo. Aquí el intervalo unitario no es el tiempo ni el espacio, sino que representa una dimensión de dinero (imagina el dinero como 50000 millones de céntimos colocados de extremo a extremo, y llama a la distancia que cubren el intervalo unitario; excepto que aquí podemos tener fracciones de céntimo); colocamos $n$ marcas, y que divide el intervalo en $n+1$ "acciones". Debido a la conexión entre el proceso de Poisson y los puntos uniformes en un intervalo, los huecos en las estadísticas de orden de un uniforme tenderán a parecer exponenciales, siempre y cuando $n$ no es demasiado pequeño.

Más concretamente, cualquier hueco que se inicie en el intervalo colocado sobre el proceso de Poisson tiene la posibilidad de ser "censurado" (efectivamente, cortado más corto de lo que hubiera sido de otro modo) al correr hacia el final del intervalo.

$\hspace{1cm}$enter image description here

Los intervalos más largos son más propensos a hacerlo que los más cortos, y un mayor número de intervalos significa que la longitud media de los mismos debe bajar: más intervalos cortos. Esta tendencia a "cortarse" tenderá a afectar a la distribución de los huecos más largos que a la de los cortos (y no hay ninguna posibilidad de que ningún hueco limitado al intervalo supere la longitud del mismo -- por lo que la distribución del tamaño del hueco debería disminuir suavemente hasta llegar a cero en el tamaño del intervalo completo).

En el diagrama, se ha acortado un intervalo largo al final y un intervalo relativamente más corto al principio. Estos efectos nos alejan de la exponencialidad.

(El actual distribución de las diferencias entre $n$ La estadística de orden uniforme es Beta(1,n). )

Así que deberíamos ver la distribución en general $n$ parecen exponenciales en los valores pequeños, y luego menos exponenciales en los valores más grandes, ya que la densidad en sus valores más grandes caerá más rápidamente.

Aquí hay una simulación de la distribución de huecos para n=2:

enter image description here

No es muy exponencial.

Pero para n=20, empieza a estar bastante cerca; de hecho, como $n$ crece, se aproximará bien por una exponencial con media $\frac{1}{n+1}$ .

enter image description here

Si eso fuera realmente exponencial con media 1/21, entonces $\exp(-21x)$ sería uniforme... pero vemos que no lo es, del todo:

enter image description here

La falta de uniformidad en los valores bajos corresponde a grande de los huecos - lo que se espera de la discusión anterior, porque el efecto de "cortar" el proceso de Poisson a un intervalo finito significa que no vemos los huecos más grandes. Pero a medida que se toman más y más valores, esto va más lejos en la cola, por lo que el resultado comienza a parecer más uniforme. En $n=10000$ La pantalla equivalente sería más difícil de distinguir de la uniforme: los huecos (que representan las partes del dinero) deberían estar muy cerca de la distribución exponencial, excepto en los valores muy improbables y muy grandes.

2 votos

Así que para entenderte bien: Usted está diciendo que es no ¡¿Exponencial?!? higgsss demuestra por encima que es exponencial.

3 votos

Permíteme citar mi respuesta: (i) "puedes demostrar que no es realmente exponencial" PERO (ii) para los huecos uniformes que miraste "...debe ser cercano a exponencial" ... "...siempre y cuando n no sea demasiado pequeño". ... ¿Qué es lo que no está claro?

5 votos

En mi respuesta he esbozado la prueba (trivial y obvia) de que no es realmente exponencial. higgss no demuestra que sea es exponencial. Esa (excelente) respuesta es completamente coherente con mis afirmaciones. En ella, higgsss demuestra que será aproximadamente exponencial: $n_{s} \approx \exp\big(-\lambda_{1} - \lambda_{2} x_{s}\big)$

8voto

Alan Puntos 7273

Supongamos que el dinero es infinitamente divisible para poder tratar con números reales en lugar de enteros.

Entonces la distribución uniforme de $t=500000000$ dividido en $n=10000$ individuos dará una densidad marginal para cada individuo $$p(x)=\frac{n-1}{t}\left(1-\frac{x}{t}\right)^{n-2}$$ para $0 \le x \le t$ y una probabilidad marginal acumulada para cada individuo de $$P(X \le x)=1 - \left(1-\frac{x}{t}\right)^{n-1}.$$

Si quiere aplicar esto, utilice la distribución marginal para asignar una cantidad aleatoria $X$ a cualquiera de los individuos, entonces reduce $t$ a $t-X$ y $n$ a $n-1$ y repite. Tenga en cuenta que cuando $n=2$ esto daría a cada individuo una distribución marginal uniforme a través de la cantidad restante, tal y como cabría esperar; cuando $n=1$ le das todo el dinero restante a la única persona que queda.

Estas expresiones son polinómicas y no exponenciales, pero para grandes $n$ probablemente le resultará difícil distinguir sus efectos de una distribución exponencial con un parámetro cercano a $\frac{n}{t}$ . La distribución es asintóticamente exponencial porque $\left(1-\frac{y}{m}\right)^{m} \to \exp(-y)$ como $m \to \infty$ .

8voto

Jamie Puntos 11

Decir "supongamos que se reparten al azar 500 millones de ingresos entre 10.000 personas" no es lo suficientemente específico para responder a la pregunta. Hay muchos procesos aleatorios diferentes que podrían utilizarse para asignar una cantidad fija de dinero a un número fijo de personas, y cada uno tendrá sus propias características para la distribución resultante. He aquí tres procesos generativos que se me ocurren, y las distribuciones de riqueza que cada uno crea.

library(MASS)

w <- 500000000 #wealth
p <- 10000 #people

Método 1, publicado por el OP:

Elija 'p' números de [0,w) uniformemente al azar. Ordénalos. Añade un "0" al principio. Reparte los importes en dólares representados por las diferencias entre los elementos sucesivos de esta lista.

d <- diff(c(0,sort(runif(p-1,max=w)),w)) #wealth-distribution
h <- hist(d, col="red", main="Exponential decline", freq = FALSE, breaks = 45,
     xlim = c(0, quantile(d, 0.99)))
fit <- fitdistr(d,"exponential")
curve(dexp(x, rate = fit$estimate), col = "black", type="p", 
      pch=16, add = TRUE)

uniform interval breaks

Método 2:

Elige 'p' números de [0, w) uniformemente al azar. Considera estos "pesos", por lo que 'w' no importa en esta etapa. Normalice los pesos. Reparte las cantidades en dólares representadas por la fracción de "w" correspondiente a cada peso.

d <- runif(p,max=w) #weigh-distribution
d <- d/sum(d)*w #wealth-distribution
h <- hist(d, col="red", main="pretty uniform", freq = FALSE, breaks = 45, 
          xlim = c(0, quantile(d, 0.99)))

rescaled weights

Método 3:

Empieza con 'p' 0s. w veces, añade 1 a uno de ellos, seleccionado uniformemente al azar.

d <- rep(0, p)
for( i in 1:5000000){ ## for-loops in R are terrible, but this gives the idea.
    k <- floor(runif(1, max=p)) + 1    
    d[k] = (d[k] + 1)
}
h <- hist(d, col="red", main="kinda normalish?", freq = FALSE, breaks = 45,
          xlim = c(0, quantile(d, 0.99)))

iterative dollars

4voto

higgsss Puntos 606

Permítame añadir algo con respecto a su adenda.

En el caso continuo, como señalan Glen_b y Henry, la FDP exacta de la cantidad que recibe cada persona es \begin{equation} p(x) = \frac{N-1}{X}\left(1-\frac{x}{X}\right)^{N-2}, \end{equation} donde $N$ es el número de personas, y $X$ es la cantidad total de dinero.

En el caso discreto, suponiendo que haya $M$ monedas para distribuir, la probabilidad de que una persona en particular reciba $m$ monedas es \begin{equation} p(m) = \frac{N-1}{M+1}\prod_{j=0}^{N-3}\left(1-\frac{m}{M-j}\right)^{N-2}. \end{equation} Cuando $M\gg N$ Los dos casos concuerdan entre sí. Para un tamaño suficientemente grande $N$ y siempre que nos alejemos de la cola, parecen distribuciones exponenciales.

En ambos casos, como estamos muestreando $N$ veces de esta distribución de probabilidad real, habrá un error asociado al tamaño de la muestra finita.

Sin embargo, realizar el análisis de errores no parece ser sencillo porque los diferentes muestreos en este caso no son independientes. Tienen que sumar la cantidad total, y la cantidad que recibe la primera persona afecta a la distribución de probabilidad de la segunda, y así sucesivamente.

Mi respuesta anterior no adolece de este problema, pero creo que sería útil ver cómo se puede resolver en este enfoque.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X