He descubierto que las matemáticas suelen enseñarse en un sentido atemporal. Enseñamos conceptos de "multiplicación" como si estuvieran establecidos para siempre. La realidad de la historia de las matemáticas otorga cierta credibilidad a tu incredulidad y muestra cuánto tiempo nos tomó aceptar los números complejos.
El concepto de números imaginarios realmente comenzó a utilizarse en el siglo XVI al estudiar ecuaciones cúbicas. Matemáticos como Scipione del Ferro notaron que existían métodos para resolver ecuaciones cúbicas donde, si simplemente aceptabas que la raíz cuadrada de los números negativos era una cosa válida, podía surgir una raíz real (actualmente diríamos que un número complejo se multiplicaba por su conjugado para obtener un número real). Por supuesto, la validez de enfoques como estos fue cuestionada, pero se encontró que funcionaba en todos los casos que exploraron. Las raíces de los polinomios cúbicos son fáciles de verificar, incluso si el método que tomaste para encontrarlas rozaba la herejía. En matemáticas, esto suele ser una señal de que estás en el camino correcto, y lo exploraron aún más.
Otros matemáticos como Rafael Bombelli descubrieron cómo vincular conceptos como la suma y la resta con estos números. Reconoció que la regla para la aritmética en los números complejos no era la misma que en los números reales, pero que se podían definir operadores de manera significativa. Su suma y resta tenían las propiedades habituales.
Por cierto, esto puede verse como un precursor del álgebra abstracta, donde podríamos hacernos preguntas como "¿qué significa que la multiplicación esté definida sobre un conjunto?" Observamos qué propiedades se deducen de la multiplicación. Los números complejos y los números reales son ambos [campos](https://en.wikipedia.org/wiki/Field(mathematics))_, en términos de álgebra abstracta, que es un álgebra que define la suma, resta, multiplicación y división de manera más o menos como los piensas hoy en día. Por lo tanto, la respuesta moderna es decir que se pueden multiplicar dos números complejos porque son un campo, y los campos admiten la multiplicación.
Dejando de lado la terminología moderna, tomó mucho tiempo para que los números complejos se convirtieran en una "cosa" por derecho propio. Una vez que empezamos a notar cosas como la fórmula de Euler ($e^{i\theta} = \cos(\theta) + i\sin(\theta)$) comenzamos a poder aprovechar realmente los números complejos para resolver problemas cada vez más interesantes.
Eso llevó tiempo. Algunos matemáticos le atribuyen a Gauss haber sido el primer matemático en realmente abrazarlos".
El matemático inglés G.H. Hardy señaló que Gauss fue el primer matemático en usar números complejos de "una manera realmente confiada y científica", aunque matemáticos como el noruego Niels Henrik Abel y Carl Gustav Jacob Jacobi ya los estaban usando rutinariamente antes de que Gauss publicara su tratado de 1831.
Hay que tener en cuenta que pasaron 300 años. Nos tomó 300 años sentirnos seguros de que los números complejos eran realmente una "cosa" y comenzar a aprovecharlos para resolver problemas avanzados que no se habían resuelto antes.
Así que diría que tienes una excusa por pensar que la multiplicación solo estaba definida en números reales. Probablemente te enseñaron así hace menos de una década. ¡La matemática tomó tres siglos en creer en ellos!
Ahora, dicho eso, verás que la multiplicación se redefine una y otra vez. Los criptógrafos a menudo hacen demostraciones en Campos de Galois, que tienen un tamaño finito (no infinito, como los números reales o enteros). Como programador informático, también trabajo a menudo con "multiplicación" de números de 32 bits. Los números de 32 bits ni siquiera forman un campo bajo los métodos aritméticos habituales, pero de todos modos lo llamamos multiplicación. Es útil llamarlo así. Así que no te sorprendas si escuchas otro significado de la multiplicación. ¡Abundan!