Para $\alpha,\beta>0$ La densidad conjunta de $(X_1,X_2,\cdots,X_n)$ es
\begin{align} f_{\beta}(x_1,x_2,\cdots,x_n)&=\frac{1}{\left(B(\alpha,\beta)\right)^n}\left(\prod_{i=1}^n x_i\right)^{\alpha-1}\left(\prod_{i=1}^n(1-x_i)\right)^{\beta-1}\mathbf1_{0<x_i<1} \\&=\exp\left[-n\ln B(\alpha,\beta)+(\alpha-1)\sum \ln x_i+(\beta-1)\sum \ln(1-x_i)\right] \\&=\exp\left[\beta\sum_{i=1}^n \ln(1-x_i)+A(\alpha,\beta)+B(x_1,\cdots,x_n)\right] \end{align}
para alguna función $A$ y $B$ .
Claramente, la familia de distribuciones $\{f_{\beta}:\beta>0\}$ pertenece a la familia exponencial de un parámetro. Por lo tanto, un estadístico suficiente mínimo para $\beta$ es $$H(X_1,\cdots,X_n)=\sum_{i=1}^n\ln (1-X_i)$$
Observe que
\begin{align}T(X_1,\cdots,X_n)&=\frac{1}{n}\left[\sum_{i=1}^n\ln\left(\frac{1}{1-X_i}\right)\right]^3 \\&=\frac{-1}{n}\left[\sum_{i=1}^n\ln(1-X_i)\right]^3 \end{align}
es una función de $H(X_1,\cdots,X_n)$ .
Y sabemos que una estadística suficiente mínima es una función de cualquier otra estadística suficiente.
Así que $T$ es una estadística suficiente para $\beta$ .
También podemos demostrar que la densidad conjunta puede ser factorizada como $$f_{\beta}(x_1,\cdots,x_n)=g(\beta, T)h(x_1,\cdots,x_n)$$
donde $g$ depende de $\beta$ y en $x_1,\cdots,x_n$ a través de $T$ y $h$ es independiente de $\beta$ .
Usted dice que podría demostrar que $S=\prod_{i=1}^n (1-X_i)$ es suficiente para $\beta$ . Pero entonces $T$ es una función de $S$ también. Así que llegamos a una conclusión similar de la Teorema de la factorización .