Puedes simplemente utilizar la máxima verosimilitud! Primero, das la desviación estándar de tu variable aleatoria normal $E_i$ como $\sigma_i$. Si eso es realmente lo que quieres, estás más o menos fuera de suerte, ya que entonces tienes más parámetros que observaciones. Así que presumiré que fue un error, y asumiré desviaciones estándar idénticas $\sigma$.
Luego, cada una de tus observaciones tiene la distribución de la suma de variables uniformes y normales independientes. Así que primero debemos encontrar esa distribución, que es un ejercicio de convolución. Sea $f(x) = \frac{1}{\theta}I_{0 \le x \le \theta}(x)$ la densidad uniforme y $g(e)$ la densidad normal. Calculando la convolución obtenemos $$ \begin{align} f \ast g (x) &= \int f(x-e) \frac{1}{\sqrt{2\pi \sigma^2}} e^{-\frac12(\frac{e}{\sigma})^2} \, de = \\ &= \frac{1}{\theta} \int_{x-\theta}^x \frac{1}{\sqrt{2\pi}\sigma} e^{-\frac12(\frac{e}{\sigma})^2} \, de \\ &= \frac{1}{\theta} \int_{\frac{x-\theta}{\sigma}}^{\frac{x}{\sigma}} \frac{1}{\sqrt{2\pi}} e^{-\frac12 u^2} \, du = \\ &= \frac{1}{\theta} \left( \Phi(x/\sigma) - \Phi((x-\theta)/\sigma) \right) \end{align} $$ donde hemos usado una simple sustitución, y donde $\Phi$ es la función de distribución acumulada normal estándar. Ahora, esto se puede utilizar como de costumbre para la estimación de máxima verosimilitud. Escribamos la función de densidad que encontramos arriba como $h(u; \theta, \sigma)$. Entonces la función de verosimilitud es $$ L(u;\theta, \sigma) = \prod_{i=1}^n h(u_i;\theta,\sigma) $$ así que el logaritmo de la verosimilitud se convierte en $$ l(u;\theta,\sigma) = -n\log\theta + \sum_{i=1}^n \log \left ( \Phi(u_i/\sigma) -\Phi((u_i-\theta)/\sigma) \right ) $$ ¡Maximiza esto sobre los parámetros desconocidos!
EDICIÓN después de los comentarios: ¡Entonces continuaré asumiendo que $\sigma$ es conocido! Puedes extenderlo a tu caso con $\sigma_i$ distintos conocidos. Podemos hacer un intervalo de confianza sobre $\theta$ mediante perfilado de verosimilitud. Simplemente utilizamos el resultado (asintótico) de que $$ 2(l(\hat{\theta})-l(\theta)) \sim \chi^2_d $$ donde $\sim$ se lee "distribuido como" y $d$ es la dimensión de $\theta`, en nuestro caso 1. $\hat{\theta}$ es el estimador de máxima verosimilitud.
Puedes invertir esto (numéricamente) para obtener un intervalo de confianza.