Por lo que veo, ninguna definición de notación científica establece que todo número debe poder expresarse.
Resulta que cada número distinto de cero puede expresarse en notación científica. Cero es un caso especial. No hay ninguna forma de tener $a\cdot 10^k = 0$ para $1\leq |a|<10$ y $k\in\mathbb{Z}$ ya que $x\cdot y = 0\Leftrightarrow (x=0~ \text{o} ~y=0)$ y $a\neq 0$ y $10^k\neq 0$ para todo $k\in\mathbb{Z}$.
¿Esto causa un problema? Realmente no. Si alguna vez queremos usar cero en un contexto en el que también prefiramos escribir las cosas en notación científica, simplemente escribimos $0$ e ignoramos escribir algunos $10^k$ después. No hay nada de malo en hacer eso y no impide nuestra capacidad de entender o utilizar aritmética u otras herramientas matemáticas relacionadas.
tldr: no hay notación científica para cero en la forma $a\cdot10^k$ con $1\leq |a|<10$ y siempre lo escribiremos simplemente como $0$. deja de leer aquí si no te importa más información
Editar: Parece haber alguna discrepancia en el uso de los términos "notación científica" y "notación científica normalizada."
Definiciones de Notación Científica
definición 1: Notación Científica: Un número, $x$, que se expresa como $x = a\cdot 10^k$ donde $a$ es cualquier número real y $k$ es cualquier entero se expresa en "notación científica".
Esta definición establece que $385\times 10^2, 38.5\times10^3, 3.85\times10^4,0.385\times10^5,$ etc... son todas maneras válidas de expresar el número $38500$.
definición 2: Notación Científica Normalizada: Un número, $x$, que se expresa como $x = a\cdot 10^k$ donde $a$ es un número real con $1\leq |a| < 10$ y $k$ es $\lfloor \log_{10} |x|\rfloor$ se expresa en "notación científica normalizada".
Siguiendo el ejemplo anterior, $38500$ se puede expresar en notación científica normalizada como $3.85\times 10^4$. En muchos textos (incluyendo todos los textos elementales en mi estantería que he revisado), no se hace ninguna distinción entre la definición utilizada anteriormente para "notación científica" y la definición utilizada aquí para "notación científica normalizada", lo que lleva a muchas personas a preferir siempre utilizar la definición utilizada en este párrafo sin importar el contexto. (Existen otros usos estándar como la notación de ingeniería, pero generalmente siempre utilizan un nombre distinto).
¿Estaba equivocado el Dr. Math?
En respuesta al comentario de hvd de que no había abordado adecuadamente la pregunta, diría que el Dr. Math efectivamente había cometido un error al decir "cero tiene múltiples representaciones en notación científica" donde la definición a la que enlazó era para la definición con $1\leq a < 10$ ya que de hecho no existe ninguna representación para cero de esa manera. Si su enlace hubiera sido a una definición de notación científica que utiliza la primera definición y no la definición más comúnmente aceptada de la segunda, entonces habría estado en lo correcto ya que cada número (y en particular cero) tiene de hecho múltiples representaciones.
¿Por qué es útil la (notación científica normalizada)?
Respecto a la utilidad de la (notación científica normalizada), puede ser utilizada como una gran conveniencia para cálculos mentales/estimaciones muy rápidos y evita la dificultad de tener que mover decimales. Compara la dificultad de los siguientes dos cálculos: $(24000\times 10^2)\times (.0003\times 10^{-3})$ y $(2.4\times 10^6)\times(3\times 10^{-7})$. En el primer caso hay una gran cantidad de pensamiento adicional sobre cómo manejar la magnitud final, mientras que en la segunda representación es muy rápido darse cuenta de que será $7.2\times 10^{-1}$.
¿Puede ser escrito cada número distinto de cero en (notación científica normalizada)?
Como se mencionó en los comentarios, cada número distinto de cero que puede ser representado en notación decimal puede ser representado en notación científica. Hay ejemplos que no pueden ser representados en notación decimal y que necesitaríamos conformarnos con una aproximación si alguna vez deseamos escribirlo en la forma $a_0.a_1a_2a_3a_4...\times 10^k$, por ejemplo $\pi\approx 3.141592\dots$. Como ejemplo adicional, $\pi^2$ en notación científica es $\approxeq 9.869604\times 10^0$
Otro ejemplo de un número que actualmente no podemos escribir en (notación científica normalizada) sería el número de Graham. Está más allá de nuestra capacidad actual averiguar qué número $k$ necesitaríamos usar. Eso no quiere decir que no se pueda escribir en notación científica. Algún ser casi divino que pueda comprender las vastas complejidades del número de Graham podría concebiblemente escribirlo todo, ya que sabemos que es un entero finito, y todos los enteros finitos tienen una representación en (notación científica normalizada).
¿Existen múltiples representaciones de un número en notación científica?
En cuanto a la cuestión de múltiples representaciones, para la definición menos estricta de notación científica que permite que $a$ sea cualquier número real, cada número tiene múltiples formas de expresarse en notación científica.
Para la definición más estricta de notación científica normalizada, hay solo una elección de $k$ que satisface $\lfloor \log_{10}|x|\rfloor$ ya que es una función bien definida. En otras palabras, si $10^2\leq x < 10^3$ entonces en cada representación de $x$ en notación científica normalizada será siempre algo veces $10^3$. En ese sentido, las representaciones son únicas. Sin embargo, hay múltiples formas de representar el valor de $a$. Si requerimos que esté escrito en forma decimal, podríamos en teoría escribir $3.2\times 10^2 = 3.1\overline{9}\times 10^2$ permitiendo a cada número al menos dos representaciones decimales. Si además permitimos que $a$ sea representable de cualquier forma, no solo en notación decimal, podríamos representar $1\times 10^2 = \frac{2}{2}\times 10^2 = \frac{3}{3}\times10^2 = \dots$ de muchas maneras también.
Descartando todo esto, obligándolo a ser representable en notación decimal, y prohibiendo los 9's repetidos, cada número distinto de cero representable será representado de una manera única.
10 votos
En mi experiencia, MathWorld es bastante disperso; en temas seleccionados es muy bueno, pero en promedio es bastante irregular. Recomiendo Wikipedia como una opción sólida de manera consistente. En el artículo vinculado se señala que $1\le |a|<10$ es una característica de la notación científica normalizada. Por lo tanto, $0$ tiene muchas expresiones en notación científica, pero ninguna de ellas está normalizada.
2 votos
@skullpatrol Agregué mucha más información en mi respuesta en respuesta a tu párrafo final agregado recientemente.
0 votos
@JMoravitz ¡Y te agradezco mucho por toda esa información :-)