La varianza mide qué tan dispersos están un conjunto de números, mientras que el ECM mide el promedio de los cuadrados de los "errores", es decir, la diferencia entre el estimador y lo que se estima. El ECM de un estimador $\hat{\theta}$ de un parámetro desconocido $\theta$ se define como $E[(\hat{\theta}-\theta)^2]$.
El ECM es el segundo momento (respecto al origen) del error, por eso incluye tanto la varianza del estimador como su sesgo (siendo el sesgo $E(\hat{\theta})-\theta$).
En otras palabras, la varianza solo mide la dispersión de los valores; el ECM indica qué tan diferentes son los valores del estimador y los valores reales de los parámetros. El ECM es una comparación del estimador y el verdadero parámetro, por así decirlo. Esa es la diferencia.
Edit: Usaré tu ejemplo: Supongamos que tenemos una diana, la media del estimador es el objetivo. La varianza mide qué tan lejos están las flechas del objetivo. Ahora supongamos que tenemos otra diana, y esta vez el objetivo es el verdadero parámetro. El ECM mide qué tan lejos están las flechas (estimaciones) del objetivo. En el primer caso, solo medimos la dispersión de los valores del estimador con respecto a su media. En el segundo caso, medimos el error que cometemos al estimar el parámetro, es decir, lo estamos comparando con el verdadero parámetro (por eso queremos estimadores con varianza y ECM lo más pequeños posible). No confundas la media de un estimador con el valor real de un parámetro.