13 votos

¿Qué tan probable es para un seleccionado al azar el número sea mayor que todos los números elegidos?

Supongamos que tomamos un distribuidos de manera uniforme número en el intervalo [a,b]. Luego continuamos a recoger con más números en el mismo rango. Deje que n(t) es el número de veces que hemos encontrado un número más grande que cualquier encontrados previamente, después de muestreo t número total. El número inicial escogido no es contado.

Resolver: $$\lim_{t\to\infty}\sqrt[n(t)]{t}$$

Para referencia, el problema que estoy tratando de resolver es la media geométrica de la cantidad de tiempo que se tarda en encontrar el siguiente número más alto, en relación a la cantidad de tiempo que tomó para el anterior número superior. Así que decir que se encuentra un nuevo mejor valor en el 4º intento, 11 de probar, y 29 de probar, me sale: $$\sqrt[3]{4*\dfrac{11}{4}*\dfrac{29}{11}}$$ lo que simplifica en la parte superior de la ecuación.

Los experimentos parecen indicar la cantidad de tiempo que toma para encontrar el siguiente número los múltiplos de 3 para cada número encontrado, pero tengo la curiosidad de si hay herramientas para resolver este analíticamente. Curiosamente, el valor parece ser la misma, incluso si puedo tomar el número elegido al azar y enchúfelo a una función (es decir, estoy revisando para ver si f(x) es mayor que el visto anteriormente f(x) para valores aleatorios de x).

Preguntas relacionadas con:

  1. Es allí cualquier manera de predecir la probabilidad de encontrar un nuevo número más grande?
  2. Puede la media geométrica se muestra a ser una constante a través de todas (o algunas) de las funciones? Intuitivamente me siento como debe ser.

No tengo demasiado amplios antecedentes en matemáticas, así que tengo la esperanza de que esto no es un problema sin resolver.

14voto

sewo Puntos 58

Primero vamos a considerar un fijo $t$.

Después de haber escogido $t$ números, vamos casi seguro que han escogido $t$ diferentes números reales, por lo que podemos asumir que este es siempre el caso, sin molestar a las probabilidades o las expectativas.

Ahora, en lugar de recoger $t$ números uno por uno, podríamos empezar por escoger un desordenado conjunto de $t$ números, y luego decidir un orden aleatorio para que las presente.

Puesto que el $t$ números escogidos se presentan en un orden aleatorio (y debería ser claro que el orden no es más probable que cualquier otro), es fácil ver que el $t$th número es un nuevo máximo con una probabilidad de $\frac1{t}$. Por otro lado lo de la $t$th número, la primera $t-1$ números son también presentados en un orden aleatorio uniformemente, por lo que el $(t-1)$th número fue un nuevo máximo con una probabilidad de $\frac 1{t-1}$, independientemente de la $t$th uno es.

Lo que este argumento muestra es que el $k$th número es un nuevo máximo con una probabilidad de $\frac 1k$, y que la nueva maximumness en diferentes posiciones en la secuencia son todos los eventos independientes.

Así que la expectativa de $n(t)$ es simplemente $\sum_{k=1}^t \frac 1k$. Para un gran $t$ esta suma enfoques $\gamma+\log t$ donde $\gamma$ es una constante conocida como la de Euler-Mascheroni constante.

Finalmente la onu-la fijación de $t$, el límite debería ser (insertar handwavy apelación a la ley de los grandes números aquí): $$\lim_{t\to \infty} \sqrt[\gamma+\log t]{t} = \lim_{t\to\infty} t^{\frac1{\gamma+\log t}} = \lim_{t\to\infty} e^{\frac{\log t}{\gamma+\log t}} = \lim_{t\to\infty} e^1 = e$$

7voto

JohnB Puntos 214

Aquí es un esquema de una prueba de la casi seguro de que la convergencia de $t^{\frac{1}{n(t)}}$ $e$(es decir, por qué el "handwavy apelación a la ley de los grandes números aquí" puede ser invocada). Esto está muy lejos de ser trivial; para obtener un casi seguro de convergencia que usted necesita para controlar cómo evoluciona el proceso, y qué tan probable es excepcional valores; un control sobre su promedio no es suficiente. La prueba no es completa. Creo que las fijaciones de las brechas en esto sería muy técnica, sin ningún ganado la penetración. Usted puede tratar de completarla si usted está interesado (pero es bastante involucrados - no sé si usted sabe que los métodos aquí utilizados, como usted dice que "[que] no tienen demasiado amplios antecedentes en matemáticas").

Para simplificar el tema, voy a suponer que trabajamos con la distribución uniforme en $[0,1]$, y que nos fijamos en los sucesivos mínimos y no de máximos. No cambia nada; como había adivinado, lo que funciona para una distribución uniforme funciona para cualquier no-atómica medida a lo largo de $\mathbb{R}$ (sólo tiene que enviar a la uniforme medida a través de la función de distribución).

Deje $(X_n)$ ser una secuencia de variables aleatorias uniformemente distribuidas en $[0,1]$. Vamos a definir de forma recursiva dos secuencias de variables aleatorias $(Y_n)$$(\tau_n)$, con $X_0 = 1$, $\tau_0 = 0$, y:

  • $\tau_{n+1} = \inf \{ m > \tau_n : X_m < Y_n \}$,
  • $Y_{n+1} = X_{\tau_{n+1}}$.

En la llanura inglés, $(Y_n)$ es la secuencia de mínimos y $\tau_n$ es la secuencia de los tiempos de estos mínimos se producen. Si tenemos un nuevo mínimo $Y_n$, como mínimo, los siguientes $Y_{n+1}$ se produce cuando un punto de $X_m$ caen en el intervalo de $[0, Y_n]$, lo cual ocurre con probabilidad de $Y_n$ a cada paso. Por lo tanto,

  • $\tau_{n+1} - \tau_n$ tiene una distribución exponencial de parámetro $Y_n$,
  • $Y_{n+1}$ es distribuido uniformemente en $[0, Y_n]$.

Ahora, permítanme definir $Z_n = \ln (Y_n)$. Un breve cálculo muestra que:

  • $\mathbb{E} (Z_{n+1} | Z_n, \cdots, Z_0) = -1$;
  • $\text{Var} (Z_{n+1} | Z_n, \cdots, Z_0) = 1$.

Esto implica que la secuencia de $(Z_n)$ se comporta le gusta un paseo aleatorio con constante a la deriva. En particular, para todos los $\varepsilon > 0$, casi seguramente, para lo suficientemente grande como $n$,

$$-(1+\varepsilon) n \leq Z_n \leq -(1-\varepsilon) n,$$

o, en otras palabras,

$$e^{-(1+\varepsilon) n} \leq Y_n \leq e^{-(1-\varepsilon) n}.$$

Este no es un resultado trivial, pero hay una abundante literatura sobre el tema. De forma heurística, $Y_{n+1}/Y_n$ es aproximadamente el $e^{-1}$, lo $\tau_{n+2} - \tau_{n+1} \sim e (\tau_{n+1} - \tau_n)$. Cuando dices que "los Experimentos parecen indicar la cantidad de tiempo que toma para encontrar el siguiente número múltiplos por sobre $3$ por cada número encontrado", está bastante cerca de la verdad. Se multiplica por sobre $e$.

De todos modos, para lo suficientemente grande como $n$, obtenemos $\mathbb{P} (\tau_{n+1} - \tau_n \leq e^{(1-2\varepsilon)n}) \leq 1-e^{-e^{-(1-\varepsilon)n} e^{(1-2\varepsilon)n}} \leq e^{- \varepsilon n}$$\mathbb{P} (\tau_{n+1} - \tau_n \geq e^{(1+2\varepsilon)n}) \leq e^{-e^{-(1+\varepsilon)n} e^{(1+2\varepsilon)n}} = e^{-e^{\varepsilon n}}$. Las secuencias de $(e^{- \varepsilon n})$ $(e^{-e^{\varepsilon n}})$ son tanto summable, así que por Borel-Cantelli lema, casi seguramente, para todos lo suficientemente grande como $n$,

$$e^{(1-2\varepsilon)n} \leq \tau_{n+1} - \tau_n \leq e^{(1+2\varepsilon)n}.$$

Ahora, se suma esta desigualdad para $0 \leq n < N$. Voy a saltar un par de detalles técnicos (me tome un poco más grande de los márgenes en los exponentes así como para deshacerse de los molestos constante), se obtiene que, casi seguramente, para todos lo suficientemente grande como $N$,

$$e^{(1-3\varepsilon)N} \leq \tau_N \leq e^{(1+3\varepsilon)N}.$$

Por otra parte, $\tau_N \leq C$ es equivalente a $n(C) \geq N$ $\tau_N \geq C$ es equivalente a $n(C) \leq N$. Voy a saltar otra ronda de tecnicismos, pero, usando el hecho de que la función $n$ es no decreciente, se obtiene que, casi seguramente, para lo suficientemente grande como $t$,

$$\frac{\ln (t)}{1+4\varepsilon} \leq n(t) \leq \frac{\ln (t)}{1-4\varepsilon}.$$

Esto es equivalente al hecho de que, casi seguramente,

$$\lim_{t \to + \infty} \frac{n(t)}{\ln (t)} = 1,$$

por lo tanto $\lim_{t \to + \infty} t^{\frac{1}{n(t)}} = e$.

3voto

Oli Puntos 89

Esta no es una respuesta, pero pueden ser útiles en la investigación. Deje $X_t$ el número de "registros" si nos muestra $t$ veces. (Aquí la primera selección es automáticamente un registro, a diferencia de en su definición).

Deje $Y_k=1$ si $k$-th recoger los resultados en un registro, y $0$ lo contrario. Entonces $$X_t=\sum_{k=1}^t Y_k.$$ Dado que la expectativa de una suma es la suma de las expectativas, tenemos $$E(X_t)=\sum_{k=1}^t E(Y_k)).$$ La probabilidad de que tengamos un registro en el $k$-ésimo de selección es $\frac{1}{k}$. Esto es casi obvio. Dado $k$ distintos números reales, todas las permutaciones de ellos son igualmente probables, y así la probabilidad de que el más grande es que en alguna posición en particular, tales como el anterior, el es $\frac{1}{k}$. Así $$E(X_t)=\sum_{k=1}^t \frac{1}{k}.$$ De dicha suma, es la $t$-ésimo número armónico $H_t$. Se encuentra aproximadamente a $\log_e(t)$.

En particular, se espera que el número de registros aumenta por $1$ cada vez que se multiplica el número de ensayos por $e$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X