La aplicación de la Ley de Expectativas Iteradas,
$$E[(\mathbf{x}_i\cdot \epsilon_i)(\mathbf{x}_i\cdot \epsilon_i)'] = E[\epsilon_i^2\mathbf{x}_i\mathbf{x}_i']=E\Big(E[\epsilon_i^2\mid \mathbf{x}_i]\mathbf{x}_i\mathbf{x}_i'\Big) $$
Para la exposición a los efectos de, supongamos que los regresores son dos, $X_1$$X_2$. También $E[\epsilon_i^2\mid \mathbf{x}_i] \equiv h$. Entonces el determinante de la matriz (en la que primero se toma el valor esperado y , a continuación, calculamos el determinante) es
$$D=E[hX_1^2]\cdot E[hX_2^2] - \left(E[hX_1X_2]\right)^2 \neq 0$$
ya que se supone que no singular. En primer lugar, es evidente que si la variable era una función lineal de la otra, la de arriba determinante será igual a cero. Para el supuesto de la no singularidad de las normas de completa dependencia lineal. Esta regla también un coeficiente de correlación $\rho_x$ igual a la unidad (mantener).
Ahora, establezca $Z_1 =\sqrt{h}X_1, \;\; Z_2 =\sqrt{h}X_2$. (Tenga en cuenta que el coeficiente de correlación $\rho_z$ $Z_1$ $Z_2$ no puede ser igual a la unidad). A continuación, el determinante puede ser escrito
$$D= E[Z_1^2]\cdot E[Z_2^2] - \left(E[Z_1Z_2]\right)^2$$
Sin pérdida de generalidad, supongamos que las variables tienen cero significa. Entonces tenemos
$$D= {\rm Var}(Z_1)\cdot {\rm Var}(Z_2) - \left({\rm Cov}[Z_1,Z_2]\right)^2$$
$$= {\rm Var}(Z_1)\cdot {\rm Var}(Z_2) - \rho_z^2 {\rm Var}(Z_1)\cdot {\rm Var}(Z_2)$$
$$\Rightarrow (1-\rho_z^2)\cdot {\rm Var}(Z_1)\cdot {\rm Var}(Z_2)$$
Positivo certeza queremos que todos los líderes principales de los menores a ser mayor que cero. Aquí, la primera menor de edad es ${\rm Var}(Z_1)>0$ y el segundo menor es $D>0$ desde $\rho_z <|1|$.
ANEXO
Mudarse a 3 dimensiones, en virtud de que el valor esperado y la transformación a $Z$ variables, tenemos una varianza-covarianza de la matriz con el rango completo. Entonces es positiva semi-definida, por lo $D_{3\times 3} \geq 0$. Pero por supuesto es no singular (por lo $D_{3\times 3} \neq 0$) por lo tanto es positiva definida, ya nos queda sólo con $D_{3\times 3} > 0$.
Con todos los líderes principales de los menores de hasta tres dimensiones estrictamente positivo, vamos a pasar a las cuatro dimensiones. Sólo tenemos que mostrar además el $4\times 4$ determinante para ser mayor que cero. Pero la matriz es una matriz de covarianza para $D_{4\times 4} \geq 0$. Pero este es también el determinante de la matriz, y ya por supuesto de la matriz es no singular, tenemos que $D_{4\times 4} > 0$. Por lo tanto, es positiva definida. Mover en cinco dimensiones. Mismo razonamiento. Etc.
Insisto otra vez el hecho de que este resultado depende, fundamentalmente, en el valor esperado del operador, que transforma la matriz en una de varianza-covarianza. De lo contrario, el exterior producto de una $k\times 1$ vector columna de los números es un singular de la matriz.