Primero un par de consejos y luego pondré la solución debajo.
Pista 1: $\left|\hat{\Theta}_N - \Theta\right|$ (el primer término de la definición de "convergencia en probabilidad") es igual a $\hat{\Theta}_N - \Theta$ ya que por definición, $\hat{\Theta}_N \geq \Theta$ .
Pista 2: Para cualquier constante $c$ , $\mathbb{P}\left(\hat{\Theta}_N > c\right)$ es la probabilidad de que el mínimo del $X_i$ 's excede $c$ . El mínimo de la $X_i$ 's excede $c$ si y sólo si $X_1 > c, X_2 > c, \dots, X_n > c$ .
Solución: $\hat{\Theta}_N$ converge en probabilidad a $\Theta$ si, para cualquier $\epsilon > 0$ , $$\lim_{N \rightarrow \infty} \mathbb{P}\left(\left|\hat{\Theta}_N - \Theta\right| > \epsilon\right) = 0.$$
Ahora $$\mathbb{P}\left(\hat{\Theta}_N - \Theta > \epsilon\right) = \mathbb{P}\left(\hat{\Theta}_N > \Theta + \epsilon\right) = \mathbb{P}\left(X_1 > \Theta + \epsilon, X_2 > \Theta + \epsilon, \dots, X_N > \Theta + \epsilon \right).$$
Dado que las muestras son independientes e idénticamente distribuidas, $$\mathbb{P}\left(X_1 > \Theta + \epsilon, \dots, X_N > \Theta + \epsilon \right) = \mathbb{P}\left(X_1 > \Theta + \epsilon\right)\mathbb{P}\left(X_2 > \Theta + \epsilon\right) \cdots \mathbb{P}\left(X_N > \Theta + \epsilon \right).$$
Sabemos que $X_i \sim \mathbb{U}[\Theta, \Theta + 1]$ Así que $\mathbb{P}\left(X_i > \Theta + \epsilon \right) = 1 - \epsilon$ (siempre y cuando $\epsilon < 1$ En caso contrario, la probabilidad es $0$ ).
Por lo tanto, $$\mathbb{P}\left(\hat{\Theta}_N - \Theta > \epsilon\right) = \begin{cases} \left(1-\epsilon\right)^N & \text{if } \epsilon < 1,\\ 0 & \text{if } \epsilon \geq 1. \end{cases}.$$
Tomando el límite como $N \rightarrow \infty$ , $$\lim_{N \rightarrow \infty} \mathbb{P}\left(\left|\hat{\Theta}_N - \Theta\right| > \epsilon\right) = \lim_{N \rightarrow \infty} \begin{cases} \left(1-\epsilon\right)^N & \text{if } \epsilon < 1,\\ 0 & \text{if } \epsilon \geq 1 \end{cases} = 0.$$