El f.d.p. de uno $x_i$ se da como
$$ f(x| \theta) = \begin{cases} \frac{1}{\theta} & & \text{if } 0 \leq x \leq \theta \\ 0 & & \text{otherwise} \end{cases} $$ Llamemos a $\vec{x} = (x_1, ..., x_n)$ .
El $n$ observaciones son i.i.d. por lo que la probabilidad de observar el $n$ -vector $\vec{x} = (x_1, ... x_n)$ es el producto de las probabilidades por componentes. Ignorando por el momento la cuestión del soporte, nótese que este producto puede escribirse simplemente como una potencia:
$$ f(\vec{x}| \theta) = \prod_i^n \frac{1}{\theta} = \frac{1}{\theta^n} = \theta^{-n} $$
A continuación, nos centramos en el soporte de esta función. Si algún componente está fuera de su intervalo de soporte $(0, 1/\theta)$ , entonces su contribución a esta ecuación es un factor 0, por lo que el producto del conjunto será cero. Por lo tanto $f(\vec{x})$ sólo tiene soporte cuando todo los componentes están dentro $(0, 1/\theta)$ .
$$ f(\vec{x}| \theta) = \begin{cases} \theta^{-n} & & \text{if } \forall i, \ 0 \leq x_i \leq \theta \\ 0 & & \text{otherwise} \end{cases} $$
Por definición, esta es también nuestra probabilidad:
$$ \mathcal{L}(\theta; \vec{x}) = f(\vec{x}| \theta) = \begin{cases} \theta^{-n} & & \text{if } \forall i, \ 0 \leq x_i \leq \theta \\ 0 & & \text{otherwise} \end{cases} $$
El problema MLE consiste en maximizar $\mathcal{L}$ con respecto a $\theta$ . Pero como $\theta > 0$ (dado en el título del problema) entonces $\theta^{-n} > 0$ por lo que 0 nunca será el máximo. Por tanto, se trata de un problema de optimización con restricciones:
$$ \hat{\theta} = \text{argmin}_\theta \,\, \theta^{-n} \text{ s.t. } \forall i \,\, 0 \leq x_i \leq \theta $$
Esto es fácil de resolver como un caso especial por lo que no necesitamos hablar del método simplex sino que podemos presentar un argumento más elemental. Sea $t = \text{max} \,\, \{x_1,...,x_n\}$ . Supongamos que tenemos una solución candidata $\theta_1 = t - \epsilon$ . Entonces dejemos que $\theta_2 = t - \epsilon/2$ . Claramente ambos $\theta_1$ y $\theta_2$ están en el interior de la región factible. Además, tenemos $\theta_2 > \theta_1 \implies \theta_2^{-n} < \theta_2^{-n}$ . Por lo tanto, $\theta_1$ no está en el mínimo. Concluimos que el mínimo no puede estar en cualquier punto interior y en particular no debe ser estrictamente menos de $t$ . Sin embargo, $t$ está en la región factible, por lo que debe ser el mínimo. Por lo tanto,
$$\hat{\theta} = \text{max} \,\, \{x_1,..., x_n\}$$
es el estimador de máxima verosimilitud.
Tenga en cuenta que si algún observado $x_i$ es menor que 0, entonces $\mathcal{L}$ es una constante 0 y el problema de optimización no tiene solución única.