31 votos

¿Por qué los 0 no son cifras significativas en 0.002?

Entiendo que las cifras significativas es un término utilizado para "dígitos conocidos de forma fiable". Sin embargo, lo que no entiendo es por qué los ceros no se cuentan entre estos en números como 0.002. Seguramente, si sabemos que el dígito de las unidades es 0, y que el dígito de las décimas es 0, y que el dígito de las centésimas es 0, entonces sabemos estos dígitos de forma fiable? En otras palabras, sabemos que el dígito de las unidades no es 1 o 2 o 3, sino 0. Por lo tanto, conocemos este dígito de forma fiable. ¿Por qué entonces no se cuenta como una cifra significativa? ¿Por qué todos los libros de física dicen que 0.002 solo tiene 1 cifra significativa?

La pregunta "relacionada" es diferente de la que estoy haciendo. La que está allí pregunta sobre 1500 mientras que la mía es sobre 0.002, es decir, cuando los ceros vienen a la izquierda del número.

3 votos

Más sobre cifras significativas.

1 votos

Los comentarios no son para responder a la pregunta; esta conversación ha sido transferida a un chat.

0 votos

Posible duplicado de Número de cifras significativas

45voto

Logan Bailey Puntos 148

Una de las reglas lógicas para las cifras significativas es que expresar un número dado en un orden de magnitud diferente no debería hacer que suene como si supieras más o menos sobre el número. Si comenzamos con $0.002$, solo podemos decir que es igual a $2\times 10^{-3}$, ya que probablemente ya aprecies las implicaciones de agregar ceros a la izquierda de un lugar decimal.

Respecto a la afirmación,

sabemos que el dígito de las unidades no es 1, 2 o 3

Sí, pero esos son conocimientos extremadamente triviales. Intenta decir "$002$ tiene tres cifras significativas". Es obvio que no hay otra constante en esos lugares, porque entonces estaríamos tratando con un número completamente diferente; no lo llamarías "dos". Las cifras significativas solo son algo relevante a considerar cuando estás debatiendo entre opciones que pueden ser redondeadas al mismo valor, dentro de lo razonable.

2 votos

Los comentarios no son para discusiones prolongadas; esta conversación ha sido movida a un chat.

35voto

TolMera Puntos 116

Porque las cifras significativas miden la incertidumbre relativa al tamaño del número

Supongamos que mides algo y obtienes 0.002 metros

Luego mides algo más y da 345 metros

Sabes que $0.002$ significa $0.002 \pm 0.0005$ y $345$ significa entre $345 \pm 0.5 .$

La incertidumbre en los números aquí son $0.0005$ y $0.5 ,$ respectivamente.

Notas como la diferencia entre $345$ y $0.5$ es mucho mayor que entre $0.002$ y $0.0005 .$

$345$ es $690$ veces más grande que $0.5 .$ $0.002$ es solo $4$ veces más grande que $0.0005 .$

Por lo tanto, $345$ es más preciso en relación a su tamaño - 2 dígitos más precisos. :)

0 votos

¿Si mido 1000m y 999m, ambos son +-0.5m, lo cual es casi la misma incertidumbre en relación al tamaño del número. ¿Sin embargo, uno tiene 1SF y otro 3SF?

14 votos

@trapper. Ese es el problema de no usar notación científica. Si 1000m significa 1.000km (+-0.5m) entonces son 4 cifras significativas. Sin embargo, si 1000m significa 1km entonces es una cifra significativa y +-500m.

0 votos

Por lo tanto, de ninguna manera 'en relación con el tamaño del número'

20voto

Kevin Zhou Puntos 1670

La noción de "cifras significativas" pretende comunicar cuánto sabes sobre un número. Un número con una cifra significativa significa que lo conoces aproximadamente en una parte de $10$, dos cifras significativas significan que lo conoces aproximadamente en una parte de $100$, y así sucesivamente.

Esta es una idea útil, porque si multiplicas un número con $n$ cifras significativas por un número con $m$, el número resultante tiene $\text{min}(n, m)$. Ese es el punto de las cifras significativas, que es tener una idea aproximada de las incertidumbres para saber qué tan preciso es tu resultado final.

Propones en cambio definir el número de cifras significativas como "el número de decimales de los que estamos seguros del valor, incluyendo cualquier cosa después del punto decimal". El beneficio de esta definición es que la suma se comporta de manera agradable, pero se comporta terriblemente bajo la multiplicación o cambios de unidades. Por ejemplo, si convierto $0.0001$ metros a $0.1$ milímetros, tres dígitos significativos desaparecen aunque nada realmente cambió en la cantidad. Resulta que en la práctica, es mucho más útil usar la primera noción, porque llevar un registro de la precisión a través de la multiplicación o cambios de unidades es más difícil que hacerlo para la suma.

Se debe tener en cuenta que "cifras significativas" es solo una palabra que suena extraña. En principio, se puede definir de la manera que se desee; no hay una definición "verdadera". La definición habitual es simplemente la más útil.

0 votos

Entonces, básicamente un método ad hoc de redondeo.

5 votos

@marshalcraft Es una forma ad hoc de hablar sobre intervalos de confianza, realmente. Es un atajo (y rápido) para aproximar el redondeo del número a "dígitos conocidos" dentro de lo que tienes confianza. "¿Qué tan seguro estamos sobre este número?" "Alrededor de 10" y "10±5" son idénticos en términos de precisión -- uno es solo un poco más fácil de trabajar.

0 votos

¿Cómo es que los ceros no son significativos entonces? Si mido mi escritorio en milímetros y son 1000 mm (+- 0.5mm). Si mido de nuevo en metros, son 1m (+- 0.5m). Es el mismo número, pero uno es 1000 veces más preciso.

8voto

Nathan Puntos 171

De los comentarios, creo que parte de tu confusión proviene de la idea de que los ceros iniciales no se pueden aplicar delante de un decimal. Esto no es preciso.

Por ejemplo, en un comentario afirmas "decir 0029 no tiene sentido porque esto no es un número", ¡pero en realidad sí es un número!

Puedes tener $29$, $0029$, $0000029$, $02.9 * 10^1$, y todos estos son el mismo número. La razón por la que normalmente no se escribe de otras formas, sin embargo, es porque todos los ceros antes del primer dígito distinto de cero no son significativos. Escribir $0029$ en lugar de $29$ no aclara ni tampoco cambia nada; lo único que hace es agregar más dígitos que no importan, por lo que rara vez se hace, pero es perfectamente válido.

Del mismo modo, la misma regla se aplica a los decimales: todos los ceros antes del primer dígito distinto de cero no son significativos. Las cifras significativas se utilizan para indicar un nivel de precisión en tu número. Si te doy una medida de 2000 pies y te digo que hay 4 cifras significativas, sabrías que medí exactamente 2000 pies (con un posible decimal). Pero si te dijera que solo tengo 1 cifra significativa, sabrías que mi número es mucho menos preciso.

Sin embargo, si los ceros iniciales en un decimal fueran significativos, entonces usar notación científica cambiaría la precisión de un número. No podemos tener esto. En tu ejemplo, $0.002$, estás argumentando que habría más de 1 cifra significativa, pero también sabemos que $0.002$ = $2* 10^{{-3}}$. No ha habido redondeo; estos dos números son idénticos tanto en valor como en precisión. Sabemos que el segundo tiene 1 cifra significativa, por lo que el primero debe tener solo 1 también.

Para tu ejemplo de suma, mencionas que Tipler y Mosca dicen ""el resultado de la suma o resta de dos números no tiene cifras significativas más allá del último lugar decimal donde ambos números originales tenían cifras significativas" ¡Creo que la forma de expresarlo aquí es muy poco clara, pero aún tiene sentido!

$2.34 + 0.00002 = 2.34002$

$2.34$ no tiene cifras significativas más allá de los centésimos.

$0.00002$ no tiene cifras significativas más allá de los cien milésimos.

Podemos ver que ambos números tienen cifras significativas más allá del lugar de las unidades, de las décimas, pero no vemos que ambos tengan cifras significativas más allá de los centésimos. Eso significa que nuestra respuesta final solo debe tener esa precisión, ¡así que obtenemos nuevamente $2.34$! (Lo cual también tiene sentido con nuestra precisión, ya que no tenemos idea de a qué medida se midió el lugar de las centésimas del primer número).

2voto

Farcher Puntos 906

El uso de ceros en un número como $0.002$ es para permitir que el $2$ vaya en el lugar correcto con respecto al punto decimal, es decir, en la posición $\frac{1}{1000}^{\rm th}$.

Lo mismo es cierto para $0.102$ pero en este número tienes un dígito más significativo (representando un número más grande) que es el $1$ ya que está en la posición $\frac{1}{10}^{\rm th}$.

Si el número es menor que uno, todos los ceros a la izquierda del dígito más significativo se utilizan para asignar la posición correcta con respecto al punto decimal al dígito más significativo.

Entonces, $0.002$ es a un dígito significativo ya que los ceros no son significativos, están ahí para colocar el $2$ en la posición correcta con respecto al punto decimal. Y $0.102$ es a tres dígitos significativos.

La vida puede complicarse cuando el número es mayor que uno.
Por ejemplo, $200$ a un dígito significativo con los ceros colocando el $2$ en la posición de los $100$ o a dos dígitos significativos o tres dígitos significativos.
Sin más información es imposible decir y por eso el uso de la notación científica es útil.
$2 \times 10 ^2$ es a un dígito significativo, $2.0 \times 10 ^2$ es a dos dígitos significativos y $2.00 \times 10 ^2$ es a tres dígitos significativos.

Entonces, con tu número original $0.002$ se puede escribir como $2 \times 10 ^{-3} $ lo que inmediatamente lo identifica como a un dígito significativo.

1 votos

Si sé que tengo 29 años, entonces inmediatamente sé que tengo 0.029 kiloaños, ¿no es así? En otras palabras, en kiloaños, conozco mi edad a 4 cifras significativas. En años normales, conozco mi edad a 2 cifras significativas. Pero decir 0029 no tiene sentido porque esto no es un número. Por favor explique.

0 votos

También, en Tipler y Mosca se dice que "el resultado de la suma o resta de dos números no tiene cifras significativas más allá del último lugar decimal en donde ambos números originales tenían cifras significativas". Esto ni siquiera tiene sentido. ¿Cuál es el "lugar decimal donde ambos números tienen cifras significativas" en 0.0002 y 2.34? ¡No existe! (Si usamos la definición normal de cifras significativas). Porque las cifras significativas de 2.34 terminan en el segundo lugar decimal, mientras que las de 0.0002 comienzan en el cuarto lugar decimal. Por lo tanto, no se superponen. Así que según la definición normal de cs, ...

0 votos

... la regla de Tipler y Mosca no se aplica a 0.0002+2.34. Esto es absurdo. ¿Puede explicar lo que sucedió aquí? ¿Es incorrecto Tipler y Mosca o es incorrecta la definición de cifras significativas?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X