La definición de integridad es que si un dato de $s(x)$ es completa, tenemos que por cada medibles $g$, $$E_\theta(g(s(x))) = 0\,, \ \forall\,\theta\ \Rightarrow\ g(s) = 0 \text{ a.s.}$$
He escuchado que se puede pensar de integridad como diciendo que si queríamos para estimar la función cero, utilizando una completa $s(x)$, entre la clase de todos cero imparcial de las funciones de la estadística, de los que sólo uno es el que toma valor 0 casi seguramente. Esto parece como una extraña idea - ¿por qué queremos estimar la función cero?
También he oído que en la estimación de parámetros de un modelo de probabilidad $P_\theta$, uno no necesita más que suficiente estadística. He escuchado que tener más que suficiente estadística proporciona ninguna información adicional. ¿Cómo este se conecte a la definición de la integridad de arriba (Basu, tal vez?) ?
Hay algunos mejores intuición para el (aparentemente) extraña condición anterior?