La covarianza (o correlación o coseno) puede ser fácilmente y, naturalmente, se convierte en la distancia euclídea por medio de la ley de los cosenos, porque es un producto escalar (= angular de similitud basado) en el espacio euclidiano. Sabiendo que la covarianza entre dos variables i y j , así como sus variaciones automáticamente implica saber d entre las variables: $d_{ij}^2 = \sigma_i^2 + \sigma_j^2 −2cov_{ij}$.
Tenga en cuenta que esta fórmula significa que una covarianza negativa es mayor la distancia que los positivos covarianza (y este es el caso de la geometría punto de vista, es decir, cuando las variables son consideradas como vectores en el tema de espacio). Si usted no desea que el signo de la covarianza para jugar a rol, la abolición de signo negativo. Ignorando el signo negativo no es "la aplicación de parches a mano" de la operación y se justifica, cuando sea necesario: si cov matriz es positiva definida, abs(cov) de la matriz será positiva definida; y por lo tanto las distancias obtenidas por la fórmula anterior será cierto euclidiana distancias (distancia euclidiana es una especie particular de métrica de distancia).
Distancias euclídeas son universales en el respeto a la agrupación jerárquica: cualquier método de dicha agrupación es válido, ya sea con la distancia euclídea o euclídea al cuadrado d. Pero algunos de los métodos, por ejemplo, el promedio de vinculación o de unión completa, se puede utilizar con cualquier diferencia o similitud (no sólo la métrica de distancia). Así que usted podría utilizar tales métodos directamente con cov o abs(cov) de la matriz o - por ejemplo - con max(abs(cov))-abs(cov), la matriz de distancias. Por supuesto, agrupando los resultados podrían depender de la naturaleza exacta de la (dis)de similitud utilizado.