De acuerdo, voy a dejar caer algunas pistas.
En primer lugar: Compruebe que su estimador MLE de $\theta$ es efectivamente el máximo de la función de verosimilitud. ¡Nótese que este máximo no es detectado por la derivada!
Ahora, la media y la varianza de $\hat \theta=2\overline{X}$ pueden deducirse de las de $\overline{X}.$ La distribución de $\overline{X}$ es difícil de escribir, pero no necesitas todo el pdf, sólo necesitas $E(\overline{X})$ y Var $(\overline{X}).$ Si te han dado este problema, probablemente ya sepas cuál es la media y la varianza de la media muestral, pero por si acaso, aquí tienes: $E(\overline{X})=E(X),$ Var $(\overline{X})=$ Var $(X)/n.$
En cuanto a la MLE, probablemente tendrá que calcular primero el pdf de $\hat \theta=\max\{X_1,\cdots,X_n\}$ . Arreglar $x\in [0,\theta].$ De la definición de un máximo, $P[\hat \theta \le x]=P[X_1\le x, \;X_2\le x,\;\cdots, X_n\le x];$ ahora usamos que el $X_i$ son copias independientes de la distribución uniforme en $[0,\theta]$ Por lo tanto $P[\hat \theta \le x]=P[X\le x]^n$ donde $X$ es una distribución uniforme en $[0,\theta].$ Desde $P[X\le x]=x/\theta$ (cdf de una variable uniforme en $[0,\theta]$ ), deducimos que la fdc de $\hat\theta$ es $x^n/\theta^n$ en $[0,\theta]$ y por lo tanto el pdf es $nx^{n-1}/\theta^n$ , también en $[0,\theta]$ . Ahora utiliza este pdf para calcular $E(\hat \theta)$ y Var $\hat \theta$ de la forma habitual. Es decir, $E(\hat \theta)=\int_0^{\theta}x (nx^{n-1}/\theta^n)\,dx$ y Var $\hat \theta=\int_0^{\theta}x^2 (nx^{n-1}/\theta^n)\,dx - E(\hat\theta)^2$