10 votos

¿La prueba de Apostol divide por cero?

La siguiente es una demostración del libro de álgebra lineal de Apostol que $\{1,t,t^{2},...\}$ es independiente. A mi entender, está dividiendo por cero repetidamente. ¿Es esto realmente un error tan grande como parece, o hay detalles que faltan para que esto sea riguroso?

Basta con demostrar que para cada $n$ el $n+1$ polinomios $1,t,...,t^{n}$ son independientes. Si estos polinomios abarcan el polinomio cero tenemos tenemos $$\sum_{k=0}^{n}c_{k}t^{k}=0$$ para todos los reales $t$ . Poniendo $t=0$ vemos que $c_{0}=0$ . Ahora divide por $t$ y poner $t=0$ de nuevo para encontrar $c_{1}=0$ . Repitiendo el proceso encontramos cada $c_{k}$ es $0$ Así que $1,t,...,t^{n}$ son independientes.

Editar : Estoy tratando "polinomio" como una función de jardín de $\mathbb{R}$ a $\mathbb{R}$ y parece que eso puede ser parte de mi problema.

8voto

rmmh Puntos 4361

No, no hay división por cero. Hay dos procesos en juego: la manipulación de polinomios y la evaluación de polinomios. Cuando manipulamos polinomios, lo hacemos como expresiones formales, donde " $t$ " es un símbolo que no toma un valor determinado. Podemos entonces evaluar cualquier polinomio que creemos de esta manera en algún punto determinado, pero el hecho de que hayamos dividido $t$ por el camino no significa que de repente hayamos dividido por cero. Como ejemplo, consideremos lo que ocurre en el siguiente caso: si tengo un polinomio $a + bt$ y luego me entero de que $a = 0$ Todo lo que hago es dividir por $t$ es considerar el polinomio relacionado $b$ .

6voto

Silver Gun Puntos 25

Como mencionó David en su comentario, la cuestión aquí es que se utiliza implícitamente la continuidad. Cuando se deduce que $c_0 = 0$ , te quedas con $$ t(c_1 + c_2 t + c_3 t^2 + \dots + c_n t^{n-1}) = 0 $$ lo que significa que para todos los $t \neq 0$ , $c_1 + c_2 t + \dots + c_n t^{n-1} = 0$ . Pero como los polinomios son funciones continuas sobre los reales, podemos utilizar la continuidad de los polinomios para ver que $c_1 + c_2 t + \dots + c_n t^{n-1}$ = 0 también cuando $t =0$ donde encontramos que $c_1 = 0$ y el proceso puede continuar.

Aquí es donde utilizamos una propiedad muy bonita de las funciones polinómicas sobre los reales; el único polinomio con coeficientes reales que desaparece en todas partes sobre los reales es el polinomio cero.

Lo digo porque he estudiado durante un verano polinomios con esta "propiedad de fuga", es decir, que cuando se evalúan en su anillo de tierra, valen cero en todas partes. Aquí el "anillo de tierra" sería $\mathbb R$ (No diría que "anillo de tierra" es un término estándar, pero aquí me sirve). Sustituir $\mathbb R$ por ejemplo, $\mathbb Z / p^n \mathbb Z$ y las cosas se desordenan. Aquí está un buen resultado (sólo para mostrar =D ) que he logrado averiguar :

Teorema. Dejemos que $f(x) \in \mathbb Z / p^n \mathbb Z$ . Entonces la función polinómica asociada $f : \mathbb Z / p^n \mathbb Z \to \mathbb Z / p^n \mathbb Z$ es idénticamente cero si y sólo si cuando escribimos $$ f(x) = \sum_{i=0}^n c_i (x)_i $$ donde $(x)_i = x(x-1)\dots(x-(i-1))$ con la convención $(x)_0 = 1$ obtenemos que $c_i \cdot i! \equiv 0 \mod p^n$ .

Prueba. ( $\Longleftarrow$ ) Supongamos $c_i \cdot i! \equiv 0 \mod p^n$ para $0 \le i \le n$ . Entonces $$ f(0) = c_0 \equiv c_0 \cdot 0! \equiv 0 \mod p^n. $$ Suponiendo que esto sea cierto para $k-1$ entonces $$ f(k) = \sum_{i=0}^k c_i (k)_i $$ y como $(k)_i = i! \begin{pmatrix} k \\\ i \end{pmatrix}$ tenemos $$ \sum_{i=0}^k c_i (k)_i = \sum_{i=0}^k c_i i! \begin{pmatrix} k \\\ i \end{pmatrix} \equiv \sum_{i=0}^k 0 \equiv 0 \mod p^n, $$ porque los coeficientes binomiales son enteros.

( $\Longrightarrow$ ) Supongamos $f$ es siempre cero $\mod p^n$ . Entonces, como para $k \ge 0$ tenemos $$ f(k) = \sum_{i=0}^n c_i i! \begin{pmatrix} k \\\ i \end{pmatrix}. $$ Informática $f(0)$ da $0 \equiv f(0) = c_0 \mod p^n$ . Por inducción, $$ 0 \equiv f(k) = \sum_{i=0}^k c_i i! \begin{pmatrix} k \\\ i \end{pmatrix} \equiv c_k k! \begin{pmatrix} k \\\ k \end{pmatrix} = c_k k! \mod p^n, $$ para que $c_k k! \equiv 0 \mod p^n$ .

Esto nos da una amplia clase de anillos sobre los que hay un montón de polinomios que son distintos de cero y que pueden desaparecer en todas partes. Obsérvese que estos anillos son "discretos" en cierto sentido, es decir, no hay una noción de continuidad que funcione de forma similar a la de los reales, por lo que teníamos la esperanza de que esos polinomios pudieran existir. Un ejemplo conocido es, por supuesto $x^{p-1} - 1$ en $\mathbb Z / p \mathbb Z$ pero hay muchos otros polinomios de este tipo, por ejemplo $(x^{p-1} - 1)^n q(x) \mod p^n$ donde $q(x)$ es un polinomio arbitrario no nulo en $\mathbb Z / p^n \mathbb Z$ . Nótese que esos polinomios también forman un ideal, lo que puede ser interesante. =)

Espero que haya sido divertido leerlo. Y que te sirva de ayuda.

3voto

macke Puntos 119

Creo que la prueba está bien. Arreglar un $n$ . Supongamos que los polinomios $1, t, \ldots, t^{n}$ no eran linealmente independientes. Entonces existiría $c_{i} \in \mathbb{R}$ tal que $c_{0} + c_{1}t + c_{2}t^{2} + \cdots + c_{n}t^{n} = 0$ para todos $t \in \mathbb{R}$ . En particular, esto debe ser cierto para $t = 0$ . Configurar $t = 0$ en el grado anterior $n$ polinomio, tenemos $c_{0} = 0$ . Entonces nuestro grado $n$ polinomio se convierte en que $t(c_{1} + c_{2}t + c_{3}t^{2} + \cdots + c_{n}t^{n - 1}) = 0$ debe ser cierto para todos los $t \in \mathbb{R}$ . Esto implica que $c_{1} + c_{2}t + c_{3}t^{2} + \cdots + c_{n}t^{n - 1} = 0$ para todos $t \in \mathbb{R}$ . En particular, esto es cierto para $t = 0$ . Por un razonamiento similar al anterior $c_{1} = 0$ . Repitiendo este proceso, tenemos que todos los $c_{i}$ son iguales a 0 y por lo tanto $\{1, t, \ldots, t^{n}\}$ forman un conjunto linealmente independiente.

3voto

codemac Puntos 689

Lo pongo porque mi navegador no encontró la palabra "infinito" en las otras respuestas.

El punto clave, me parece, es que, sobre un dominio infinito, el morfismo del álgebra de polinomios a funciones polinómicas es inyectivo.

Más cuidadosamente expresado: Sea $A$ sea un dominio infinito, sea $X$ sea un indeterminado, dejemos que $B$ sea el $A$ -de funciones polinómicas de $A$ a $A$ . Entonces el natural $A$ -morfismo de álgebra de $A[X]$ a $B$ es inyectiva.

(Seguro que todo el mundo conoce la prueba).

Como señala David Speyer, la afirmación es tautológica para $A[X]$ .

(Podemos sustituir "inyectivo" por "biyectivo" si queremos, pero la propiedad crucial es la inyectividad).

1voto

Math Gems Puntos 14842

La continuidad no es necesaria si invocamos el Teorema del factor (FT) para una raíz general $\rm\,r\,$ (vs. raíz $\rm\,r= 0).$

Más de un $\rm\,\color{#C00}{domain}\ D,$ suponga un polinomio $\rm\, f\in D[x]\,$ tiene más raíces que su grado. Demostramos por inducción en el grado $\rm\,f\,$ que todos los coeficientes de $\rm\,f\:$ son $\,0.\,$ Si $\rm\,f\,$ tiene grado $\,0\,$ entonces $\rm\,f\,$ es constante, digamos $\rm\:f = c\in D.\,$ Desde $\rm\,f\,$ tiene una raíz, $\rm\,c = 0.\:$ Así que todos los coeficientes de $\rm\,f\,$ son $\,0.\,$ Si no $\rm\,f\,$ tiene grado $\ge 1,\:$ así que $\rm\,f\,$ tiene una raíz $\rm\,r.\,$ Por FT, $\rm\ f = (x\!-\!r) g,$ $\rm\: g\in D[x]. $ Demasiado $\rm\,g\,$ tiene más raíces que su grado, ya que todas las raíces $\rm\,s \ne r\,$ son raíces de $\rm\,g\,$ por $\rm\,(s\!-\!r)g(s) = 0,\,$ $\rm\,s-r\ne 0\,$ $\Rightarrow$ $\rm\,g(s)=0,$ por $\rm\color{#C00}{domain}\ D.\:$ Por lo tanto, por inducción, todos los coeficientes de $\rm\,g\,$ son $\,0,\,$ por lo que $\rm\,f = (x\!-\!r)g\: $ tiene todos los coeficientes $0.\ \ $ QED

Como corolario, si $\rm\,\deg f < |D|\,$ y $\rm\,f(D) = 0,\,$ entonces todos los coeficientes de $\rm\,f\,$ son $\rm\,0,\,$ es decir, si $\rm\,f\,$ es cero como función, entonces es cero como formal polinomio. En particular, esto es cierto para cualquier dominio infinito $\rm\,D,\,$ por lo que el anillo de funciones polinómicas sobre un dominio infinito $\rm\,D\,$ es isomorfo al anillo $\rm\,D[x]\,$ de polinomios formales sobre $\rm\,D.$

La prueba falla sobre los no-dominios, por ejemplo $\rm\,x^2\!-\!1 = (x\!-\!1)(x\!+\!1)\,$ tiene $\,4\,$ raíces $\,\pm1,\pm3\,$ en $\, \mathbb Z/8.\,$ Obsérvese cómo la prueba se rompe debido a la existencia de divisores de cero: obsérvese $\,3\,$ es una raíz ya que $\,2\cdot4\equiv 0,\,$ pero $\,3\,$ no es una raíz de $\rm\,x\!-\!1\,$ o $\rm\,x\!+\!1;\,$ es decir $\rm\,x\!-\!3\,$ divide $\rm\,(x\!-\!1)(x\!+\!1)\,$ pero no divide ninguno de los factores, por lo que es un irreducible no primo. Esto da como resultado el no único factorización $\rm\,(x-3)(x+3)\equiv (x-1)(x+1).$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X