Rápido y sucio respuesta... Vamos a considerar en primer lugar $\text{var}(X)$; si usted tenía $n$ observaciones conocidos con el valor esperado de $E(X) = 0$ utilizaría ${1\over n}\sum_{i=1}^n X_i^2$ para la estimación de la varianza.
El valor esperado de ser desconocido, usted puede transformar su $n$ observaciones en $n-1$ observaciones con el conocido valor esperado tomando $A_i = X_i - X_1$ por $i = 2, \dots,$ n. Usted recibirá una fórmula con un $n-1$ en el denominador, sin embargo, el $A_i$ no son independientes y que tendría que tomar esto en cuenta; al final se iba a encontrar la fórmula habitual.
Ahora para la covarianza puede utilizar la misma idea: si el valor esperado de $(X,Y)$ era $(0,0)$, que había tenido un ${1\over n}$ en la fórmula. Restando $(X_1,Y_1)$ a todos los demás valores observados, se obtiene $n-1$ observaciones con el conocido valor esperado... y un ${1\over n-1}$ en la fórmula - una vez más, este presenta algunos dependencia a tomar en cuenta.
P. S. La manera correcta de hacerlo es elegir un ortonormales base de $\big\langle (1, \dots, 1)' \big\rangle^{\asesino}$, que es de $n-1$ vectores de $c_1, \dots, c_{n-1} \in \mathbb R^n$ que
- $\sum_j c_{ij}^2 = 1$ para todo $i$,
- $\sum_j c_{ij} = 0$ para todo $i$,
- $\sum_j c_{i_1j} c_{i_2j} = 0$ para todo $i_1 \ne i_2$.
A continuación, puede definir $n-1$ variables $A_i = \sum_j c_{ij} X_j$ y $B_i = \sum_j c_{ij} Y_j$. El $(A_i,B_i)$ son independientes, tienen el valor esperado de $(0,0)$, y tienen la misma varianza/covarianza de las variables originales.
Todo el punto es que si usted quiere deshacerse de lo desconocido a la expectativa, se le cae una (y sólo una) de observación. Esto funciona de la misma para ambos casos.