26 votos

¿Por qué se pueden aplicar operaciones con números reales a números complejos?

Estaba mirando la definición de la unidad imaginaria $i$. La definimos por $i^2=-1$. Pero, ¿qué significa incluso elevar al cuadrado en ese contexto?

Es fácilmente demostrable que no existen soluciones reales a esta ecuación. Entonces decimos que definimos $i$ como un nuevo tipo de número tal que la ecuación es verdadera. Entonces, $i$ no es un número real.

Pero utilizamos la multiplicación en esa ecuación, y hasta donde yo sé, la multiplicación sólo está definida entre números reales en este punto, y $i$ claramente no es un número real. Entonces, ¿cómo podemos aplicar un operador exclusivo para números reales en un número que no es real?

Ediciones - Para mayor claridad

3voto

AlexanderJ93 Puntos 101

Lo que estamos haciendo es crear un campo más grande introduciendo un nuevo número independiente y diciendo cómo se combina consigo mismo y con los números existentes a través de las operaciones de campo.

Hay 4 nuevas combinaciones: $r + i$, $i + i$, $r \cdot i$, y $i\cdot i$, donde $r$ es real. El primero y el tercero se toman como elementos nuevos (cuando $r$ no es $0$ en el primero y tampoco $0$ ni $1$ en el tercero), eso es lo que queremos decir con independiente; el segundo está determinado por los axiomas de campo como $(1+1)\cdot i$. Por lo tanto, definimos lo que significa $i\cdot i$ (en este caso, es $-1$) y luego dejamos que los axiomas de campo manejen el resto.

Esto implica la existencia de todos (y solo) los elementos de la forma $a + ib$ para números reales $a$ y $b$, y define la adición de forma independiente y la multiplicación de manera distributiva en estos números.

2voto

Russ Puntos 9

Esa es una observación muy astuta. En el contexto de tu pregunta, la respuesta es que definimos la multiplicación en el mismo sentido que definimos i. Deberíamos en realidad aclarar que esta nueva entidad puede ser multiplicada consigo misma y el resultado es -1.

Y no deberíamos detenernos aquí. Deberíamos decir que i también puede ser multiplicado por números reales, y 3i es un número nuevo, que no es real ni igual a i. Deberíamos requerir que esta nueva multiplicación sea conmutativa y asociativa.

Lo mismo con la adición. Deberíamos definir explícitamente que estos nuevos números pueden ser sumados con ciertas reglas. i+5 no es real ni igual a i tampoco, y así sucesivamente...

2voto

Kempo63 Puntos 39

He descubierto que las matemáticas suelen enseñarse en un sentido atemporal. Enseñamos conceptos de "multiplicación" como si estuvieran establecidos para siempre. La realidad de la historia de las matemáticas otorga cierta credibilidad a tu incredulidad y muestra cuánto tiempo nos tomó aceptar los números complejos.

El concepto de números imaginarios realmente comenzó a utilizarse en el siglo XVI al estudiar ecuaciones cúbicas. Matemáticos como Scipione del Ferro notaron que existían métodos para resolver ecuaciones cúbicas donde, si simplemente aceptabas que la raíz cuadrada de los números negativos era una cosa válida, podía surgir una raíz real (actualmente diríamos que un número complejo se multiplicaba por su conjugado para obtener un número real). Por supuesto, la validez de enfoques como estos fue cuestionada, pero se encontró que funcionaba en todos los casos que exploraron. Las raíces de los polinomios cúbicos son fáciles de verificar, incluso si el método que tomaste para encontrarlas rozaba la herejía. En matemáticas, esto suele ser una señal de que estás en el camino correcto, y lo exploraron aún más.

Otros matemáticos como Rafael Bombelli descubrieron cómo vincular conceptos como la suma y la resta con estos números. Reconoció que la regla para la aritmética en los números complejos no era la misma que en los números reales, pero que se podían definir operadores de manera significativa. Su suma y resta tenían las propiedades habituales.

Por cierto, esto puede verse como un precursor del álgebra abstracta, donde podríamos hacernos preguntas como "¿qué significa que la multiplicación esté definida sobre un conjunto?" Observamos qué propiedades se deducen de la multiplicación. Los números complejos y los números reales son ambos [campos](https://en.wikipedia.org/wiki/Field(mathematics))_, en términos de álgebra abstracta, que es un álgebra que define la suma, resta, multiplicación y división de manera más o menos como los piensas hoy en día. Por lo tanto, la respuesta moderna es decir que se pueden multiplicar dos números complejos porque son un campo, y los campos admiten la multiplicación.

Dejando de lado la terminología moderna, tomó mucho tiempo para que los números complejos se convirtieran en una "cosa" por derecho propio. Una vez que empezamos a notar cosas como la fórmula de Euler ($e^{i\theta} = \cos(\theta) + i\sin(\theta)$) comenzamos a poder aprovechar realmente los números complejos para resolver problemas cada vez más interesantes.

Eso llevó tiempo. Algunos matemáticos le atribuyen a Gauss haber sido el primer matemático en realmente abrazarlos".

El matemático inglés G.H. Hardy señaló que Gauss fue el primer matemático en usar números complejos de "una manera realmente confiada y científica", aunque matemáticos como el noruego Niels Henrik Abel y Carl Gustav Jacob Jacobi ya los estaban usando rutinariamente antes de que Gauss publicara su tratado de 1831.

Hay que tener en cuenta que pasaron 300 años. Nos tomó 300 años sentirnos seguros de que los números complejos eran realmente una "cosa" y comenzar a aprovecharlos para resolver problemas avanzados que no se habían resuelto antes.

Así que diría que tienes una excusa por pensar que la multiplicación solo estaba definida en números reales. Probablemente te enseñaron así hace menos de una década. ¡La matemática tomó tres siglos en creer en ellos!

Ahora, dicho eso, verás que la multiplicación se redefine una y otra vez. Los criptógrafos a menudo hacen demostraciones en Campos de Galois, que tienen un tamaño finito (no infinito, como los números reales o enteros). Como programador informático, también trabajo a menudo con "multiplicación" de números de 32 bits. Los números de 32 bits ni siquiera forman un campo bajo los métodos aritméticos habituales, pero de todos modos lo llamamos multiplicación. Es útil llamarlo así. Así que no te sorprendas si escuchas otro significado de la multiplicación. ¡Abundan!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X