Matemáticamente son equivalentes.
Sin embargo, existen convenciones sobre la precisión que los hacen diferentes. Cuando se escribe $0.000$, se asume básicamente que los dígitos escritos son correctos, pero puede haber errores más adelante en la expansión. Es decir, significa algo así como $0.000\pm0.0005$ (o tal vez un margen de error ligeramente mayor).
Por otro lado, si solo escribes $0$, podría interpretarse como que significa exactamente eso (sin ningún margen de error). Sin embargo, si hay un margen de error en los otros números, es probable que también haya algún error para los valores cero y que no difieran de los otros valores (excepto que están cerca de cero). Por lo tanto, probablemente se debería usar el mismo número de decimales allí que para los otros valores.
También en las tablas se debe distinguir entre la cantidad $0$ y la ausencia de cantidad (que normalmente se indica con un guion).
0 votos
Eso depende de lo que estés haciendo. Al usar un único $0$, uno puede identificar fácilmente esos puntos al mirar una tabla. Si ese es el punto ("Mira todos los datos cero que tengo en mi tabla") entonces es el camino a seguir.
0 votos
Depende. Si tus entradas deben tener $4$ dígitos, entonces deberías escribir $0,000$. Dado que $0 = 0,000$, matemáticamente hablando, no importa qué pongas.
0 votos
¿Qué es un número sigcimal?
0 votos
Números Zeccimales ¿qué quieres decir?
0 votos
Supongo que te refieres a números decimales? No creo que esto tenga que ver con la teoría de la medida, la teoría de la medida está relacionada con la teoría de la integración.