4 votos

de densidad de probabilidad del número máximo de muestras a partir de una normalizado de una distribución uniforme

Supongamos que

$$X_1, X_2, \dots, X_n\sim Unif(0, 1), iid$$

y supongamos que

$$\hat\theta = \max\{X_1, X_2, \dots, X_n\} / \sum_i^nX_i$$

¿Cómo puedo encontrar la densidad de probabilidad de $\hat\theta$?

Yo sé la respuesta si es iid. Pero no sé cómo se formaliza el hecho de que la suma es iqual a 1.

un simiar pregunta se puede encontrar aquí: de densidad de probabilidad del número máximo de muestras a partir de una distribución uniforme


Llego aquí: \begin{align} P(Y\leq x)&=P(\max(X_1,X_2 ,\cdots,X_n)/\sum_i^nX_i\leq x)\\&=P(X_1/\sum_i^nX_i\leq x,X_2/\sum_i^nX_i\leq x,\cdots,X_n/\sum_i^nX_i\leq x)\\ &\stackrel{ind}{=} \prod_{j=1}^nP(X_j/\sum_i^nX_i\leq x )\\& \ \ \ \ \ \end{align}

4voto

A.S. Puntos 2861

Tenga en cuenta que $$\hat\theta_n\sim \frac 1 {1+\sum_{i=1}^{n-1}U_i} $$ porque yo.yo.d. uniformes estándar $U_i$. Ver ahora este y este

3voto

Kyle Puntos 21

Si esto es cualquier ayuda, aquí están algunas de las simulaciones de la densidad.

enter image description here

enter image description here

enter image description here

enter image description here

enter image description here

1voto

user42723 Puntos 136

Debido a la simetría, es suficiente con fijarse solamente en los casos en que $X_1$ es el máximo. En ese caso, $X_2, \dots, X_n$ son independientes y uniformemente distribuidos entre 0 y $X_1$. $$\theta = \frac{X_1}{X_1 + \sum_{i=2}^n X_i} \quad \text{with} \ X_2, \dots, X_n \sim U(0, X_1)$$ Ahora dividimos por $X_1$ a ambos lados de la fracción y obtenemos la fórmula A. S. nos dio. $$\theta = \frac{1}{1 + \sum_{i=2}^n X_i} \quad \text{with} \ X_2, \dots, X_n \sim U(0, 1)$$ La suma de $n$ iid los uniformes de las variables aleatorias tiene el Irwin–Hall de distribución. Es PDF (función de densidad de probabilidad) es: $$f(x) = \frac{1}{2\left(n-1\right)!}\sum_{k=0}^n\left(-1\right)^k{n \choose k}\left(x-k\right)^{n-1}\operatorname{sgn}(x-k)$$ Vamos $$ X = \sum_{i=2}^n X_i $$ El PDF de $X$ es: $$f_X(x) = \frac{1}{2\left(n-2\right)!}\sum_{k=0}^{n-1}\left(-1\right)^k{n-1 \choose k}\left(x-k\right)^{n-2}\operatorname{sgn}(x-k)$$ Ahora podemos utilizar el cambio de variable para calcular el PDF de $\theta$. La siguiente fórmula se obtiene el PDF de $\theta$ si $\theta = g(X)$ $g(x)$ es monótona.

$$f_\theta(y) = \left| \frac{\mathrm{d}}{\mathrm{d}y} (g^{-1}(y)) \right| \cdot f_X(g^{-1}(y))$$ Tenemos $$ \begin{array}{rl} g(x) &= \frac{1}{1 + x} \\ g^{-1}(y) &= 1/y - 1 \\ \left| \frac{\mathrm{d}}{\mathrm{d}y} g^{-1}(y) \right| &= y^{-2} \end{array} $$ Así que el PDF de $\theta$ es: $$ \begin{array}{rl} f_\theta(y) &= \displaystyle \frac{1}{2 y^2 \left(n-2\right)!}\sum_{k=0}^{n-1}\left(-1\right)^k{n-1 \choose k}\left(1/y-1-k\right)^{n-2}\operatorname{sgn}(1/y-1-k) \\ &= \displaystyle \frac{-1}{2 y^2 \left(n-2\right)!}\sum_{k=1}^{n}\left(-1\right)^k{n-1 \choose k-1}\left(1/y-k\right)^{n-2}\operatorname{sgn}(1/y-k) \end{array} $$ Es positivo en $y \in (1/n, 1)$.

Aproximación de un gran $n$

La media y la varianza de los Irwin-Hall de distribución son, respectivamente,$\mu=n/2$$\sigma^2=n/12$. Debido a que el Irwin-Hall de distribución es la suma de $n$ iid variables aleatorias, el teorema del límite central afirma que para que un gran $n$ a que su distribución es muy cerca a la distribución normal con la misma media y varianza. La distribución normal tiene en PDF: $$f(x) = \frac{1}{\sigma\sqrt{2\pi} } \; \exp\left( -\frac{(x-\mu)^2}{2\sigma^2} \right)$$ La sustitución de $\mu$ $\sigma^2$ con la media y la varianza de los Irwin-Hall de distribución con el parámetro $n-1$ nos llega: $$f_X(x) \approx \frac{1}{\sqrt{\pi (n-1)/6} } \; \exp\left( -\frac{(x-(n-1)/2)^2}{(n-1)/6} \right)$$ Utilizando el mismo cambio de variable técnica que el anterior, se obtiene la distribución de $\theta$ grandes $n$: $$ \begin{array}{rl} f_\theta(y) &\approx \displaystyle \frac{1}{y^2\sqrt{\pi (n-1)/6} } \; \exp\left( -\frac{(1/y-1-(n-1)/2)^2}{(n-1)/6} \right) \\ &= \displaystyle \frac{1}{y^2\sqrt{\pi (n-1)/6} } \; \exp\left( -\frac{3}{2}\cdot\frac{(2/y-n-1)^2}{n-1} \right) \end{array} $$

0voto

MoonKnight Puntos 951

Primero, permítanme reformular el problema un poco

$$ P(\theta)d\theta = \left[\int_{0}^1 dy P(\max\{X_i\}=y)\cdot P\left(\bar{X}=\frac{y}{n\theta} \medio| \max \{X_i\}=y \right)\right]d\bar{X} $$

Se menciona en este enlace que $$ P(\max\{X_i\}=y)=y^n $$

Sin perder la generosidad, también puedo cambiar el orden de la ${X_i}$${\mu_i}$, por lo que el $\mu_n=\max\{X_i\}=y$.

Ahora podemos definir $\bar{\mu}=\sum_{i=0}^{n-1}\mu_i/(n-1)$ , lo que $$ P\left(\bar{X}=\frac{y}{n\theta} \medio| \max \{X_i\}=y \right)d\bar{X} = P\left(\bar{\mu}=\frac{1-\theta}{(n-1)\theta}y \media| \mu_i \sim Unif(0,y)\right)d\bar{\mu} $$

Definir $z_i=y\mu_i$, podemos escribir

$$ P(\theta)d\theta = \int_{0}^1 dy d\bar{\mu} \left[ y^n\cdot P\left(\bar{\mu}=\frac{1-\theta}{(n-1)\theta}y \media| \mu_i \sim Unif(0,y) \right)\right] \\ = \int_{0}^1 dy \underbrace{ d\bar{z} \left[P\left(\bar{z}=\frac{1-\theta}{(n-1)\theta}y \media| z_i \sim Unif(0,1) \right)\right] }_{P_0} $$

Aviso de la parte I etiquetados como $P_0$ es independiente de $y$, por lo que podemos llevar a cabo la integral trivialmente. $$ P(\theta)d\theta = P_0= \left[P\left(\bar{z}=\frac{1-\theta}{(n-1)\theta}y \media| z_i \sim Unif(0,1) \right)\right] d\bar{z} \\ =\left[P\left(\bar{z}=\frac{1-\theta}{(n-1)\theta}y \media| z_i \sim Unif(0,1) \right)\right] \left|\frac{1}{(n-1)\theta^2}\right|d\theta $$

Creo que hay algunos generales de la analítica de la forma de esta distribución de $\bar{z}$ arbitrarias $n$, pero simplemente no puedo resolver eso. Sin embargo, hay algunos solucionable ejemplos para probar esta fórmula:

n=2: $$ P(\theta)=\left[P\left(z_1=\frac{1-\theta}{\theta} \medio| z_1 \sim Unif(0,1) \right)\right] \frac{1}{\theta^2} = \frac{1}{\theta^2} $$

n=2

n=3: $$ P(\theta)=\left[P\left(\frac{z_1+z_2}{2}=\frac{1-\theta}{2\theta} \medio| z_1,z_2 \sim Unif(0,1) \right)\right] \frac{1}{2\theta^2} =\left[2-4*\left|\frac{1-\theta}{2\theta}-0.5\right|\right] \frac{1}{2\theta^2} $$

n=3

n es grande

Al $n$ es grande, desde el teorema central del límite, sabemos que $$ P\left(\bar{z}=\frac{1-\theta}{(n-1)\theta} \medio| z_i \sim Unif(0,1) \right) \aprox P_\text{Gauss}\left(\frac{1-\theta}{(n-1)\theta}, \mu=0.5, \sigma^2=\frac{1}{12n}\right)\\ =\sqrt{\frac{6n}{\pi}}\exp\left[-6n\left(\frac{1-\theta}{(n-1)\theta}-0.5\right)^2\right] $$

Con alguna aproximación $n\gg 1$, se puede escribir de la forma más ordenadamente como $$ \lim_{n\to \infty}P(\theta)\approx \frac{1}{n\theta^2} \sqrt{\frac{6n}{\pi}}\exp\left[-6n\left(\frac{1-\theta}{n\theta}-0.5\right)^2\right] $$

n=10 n=200

MLE con gran n El valor máximo de densidad de probabilidad es aproximadamente $$ \frac{1-\theta}{n\theta}=0.5 \Rightarrow \theta=\frac{2}{n} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X