9 votos

Cómo generalizar el determinante de la función

Hola me pidieron mostrar que para cualquier espacio vectorial $V$ sobre un campo $\mathbb{F}$ de dimensión arbitraria $n$ que si arreglamos alguna base $\beta=\{w_1,\ldots,w_n\}$ que no hay una única función

$D_\beta : V \times \cdots \times V \to \mathbb{F}$ que satisface las tres propiedades,

$D_\beta(v_1,\ldots,v_n)=0$ si algunos de $v_i=v_j, i \neq j$

$D_\beta$ es lineal en cada factor y

$D_\beta(w_1,\ldots,w_n)=1$

Por otra parte, quiero ser capaz de probar algunas cosas el uso de este.

Por ejemplo, que la Aplicación de D para algunos vectores de v será el mismo que el determinante de la representación coordinar la representación de los v, que la aplicación de D y conseguir algo distinto de cero para un conjunto de vectores implys los vectores no son una base, etc.

Sé que, en el caso de dos dimensiones, podemos hacer esto mediante el uso de la idea de que el determinante da el área de un paralelepípedo, etc. Y si definimos la función que satisface las propiedades antes mencionadas, a continuación, puede ser fácilmente demostrado ser único.

Pero en los casos en que no es dim 2, ya que no tengo una fórmula general para los n vectores , ¿cómo puede hacerse esto? Es seguro asumir que dicha función existe y, a continuación, acaba de demostrar que es único, o debe ser demostrado que incluso una función de este tipo que existe en absoluto?

Y dicen que sólo podríamos definir la función que satisface las propiedades. Entonces, ¿cómo podemos demostrar que es único, etc?

Es posible hacer tal vez este problema usando las matrices? Es decir, podemos definir el determinante de las matrices de nxn como nuestras entradas, y de alguna manera el uso que demostrar las cosas?

No he aprendido acerca de las cosas que llama la alternancia de los mapas. Todavía estoy tratando de hacer esto , el uso de asesoramiento en las respuestas, ¿es esta la forma que debe ser abordado?

Definir un mapeo $f: L(V^{n}, \mathbb{F}) \to \mathbb{F}$$f \to f(e_1,...,e_n)$, o en caso de ser as $f \to f(x_1,...x_n)$?

A continuación, $f$ es inyectiva como si $f_{1}(e_1,...,e_n)=f_{2}(e_1,...,e_n)$ entonces esto implica que son iguales como la forma de una función actúa sobre una base completamente determina? Yo realmente confundido. y entonces, Si yo pudiera demostrar que es subjetiva y por lo tanto un isomorfismo podría decir que elegir único de f, que es el que da la $f(x_1,\ldots,x_n)=0$ y afirman que esta es la función de $D_\beta$ que yo quería. Pero estoy teniendo un montón de problemas para ponerlo todo junto.

Yo todavía no entiendo. Parece que la respuesta es conseguir muchos votos, pero yo no lo entiendo. Este es sólo un primer curso de álgebra lineal por el camino, así que no sé acerca de muchos de los resultados avanzados. Tal vez la respuesta podría depender de la función sgn y permutaciones. Entonces yo podría tener una fórmula general No sé cómo en algunas de las respuestas que podemos simplemente decir supongamos que D es alterna etc, cuando esta es una de las cosas que quiero probar. Que es lo que también me confunde. No sé lo que puede incluso comenzar con. O si hay que empezar de cero completamente. En busca de asesoramiento.

Si esto no se puede hacer tan fácilmente, yo también estaría feliz de ver que si asumimos una función de este tipo no existe, entonces, al menos, demostrar que es único. Sin apenas diciendo que el factor determinante es que la función y el determinante es único.

Gracias

4voto

Aretino Puntos 5384

Observe que $$ D_\beta\ldots, \underbrace{w_i+w_j}_{k\text{-ésimo lugar}},\ldots, \underbrace{w_i+w_j}_{m\text{-ésimo lugar}},\ldots)=0 $$ debido a que existen dos vectores iguales. Por otro lado, por la linealidad: $$ D_\beta\ldots, {w_i+w_j},\ldots, {w_i+w_j},\ldots)= D_\beta\ldots, w_i,\ldots, w_j,\ldots)+ D_\beta\ldots, w_j,\ldots, w_i,\ldots), $$ debido a $D_\beta(\ldots, w_i,\ldots, w_i,\ldots)=D_\beta(\ldots, w_j,\ldots, w_j,\ldots)=0$. Se obtiene entonces: $$ D_\beta\ldots, w_i,\ldots, w_j,\ldots)= -D_\beta\ldots, w_j,\ldots, w_i,\ldots), $$ esa es su función, aplicada a los vectores de la base, cambia de signo cada vez que el intercambio de dos de sus argumentos. Junto con la solicitud de $D_\beta(w_1, \ldots, w_n)=1$ esta completamente determina los valores de $D_\beta$ cuando sus argumentos son vectores de la base. Se sigue por la linealidad que $D_\beta$ está determinada únicamente.

Para mostrar que la aplicación de $D_\beta$ a algunos vectores será el mismo que el determinante de la representación coordinar la representación de los vectores, se necesita una definición de determinante. Mi favorito definición de determinante de hecho es la misma que la definición de $D_\beta$.

0voto

Stephan Aßmus Puntos 16

No es una queja Respuestas que no ayudan pero quitará la atención acerca de las respuestas aquí; así que voy a hacer de este CW y a poner al día con los comentarios negativos por un tiempo.

Este resultado se realiza en exquisito detalle en Greub, un libro que ya no tienen.

Es probable hecho en Axler. La idea de que Axler podría incluir esto es algo apoyado por su temprano artículo; su libro está destinado a los estudiantes de pregrado. No tengo una copia.

0voto

TimK Puntos 341

Cada conjunto de vectores $(v_1,...,v_n)$ corresponde a una matriz (las coordenadas de $v_k$ se encuentran en la columna de $k$). El uso de las propiedades 1 y 2, la matriz puede ser diagonalized sin cambiar el determinante, ¿recuerdas? Después de eso, usando la propiedad 3, su función es el producto de la diagonal términos. Los casos con demasiados ceros dar un valor null determinante, como usted debe comprobar para completar la prueba.

Ejemplo. Para $n=2$, $v_1=\sum_{i=1}^2 a_{i1}w_i$, $v_2=\sum_{i=1}^2 a_{i2}w_i$ y $(v_1,v_2)$ corresponde a la matriz $$ A=\left( \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right). $$ Las propiedades 1 y 2 de su función implica que $$ D\left( \begin{array}{cc} a_{11} & ca_{11}+a_{12} \\ a_{21} & ca_{21}+a_{22} \end{array} \right)=cD\left( \begin{array}{cc} a_{11} & a_{11} \\ a_{21} & a_{21} \end{array} \right) +D\left( \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right)= D\left( \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right)=D(A). $$ Para $a_{11}\neq0$, elija $c$ tal que $ca_{11}+a_{12}=0$ y obtener $$ D\left( \begin{array}{cc} a_{11} & 0 \\ a_{21} & -\frac{a_{12}a_{21}}{a_{11}}+a_{22} \end{array} \right)=D\left( \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right). $$ Ahora eliminan $a_{21}$ sin cambio $D(A)$ y obtener $$ D\left( \begin{array}{cc} a_{11} & 0 \\ 0 & -\frac{a_{12}a_{21}}{a_{11}}+a_{22} \end{array} \right)=D(A). $$ Ahora uso las propiedades 2 y 3, y obtener un $D(A)=-a_{12}a_{21}+a_{11}a_{22}$.

0voto

zyx Puntos 20965

Algunas adiciones a las otras respuestas.

El argumento es que las propiedades pueden ser satisfechos, porque Determinante en relación a la base $w_i$ les satisface ; y si una función tiene esas propiedades es igual al Determinante (en la misma base).

La prueba de la singularidad de las necesidades el hecho de que el signo de una permutación está bien definido, por lo que diferentes formas de clasificación de una permutación por los relatos de plomo a la misma $\pm$ signo.

El antisymmetry / skew-simetría / alterna de la propiedad (la terminología varía) usualmente se expresa como una de las propiedades de $D$. Este ejercicio intenta ser más guapo o más difícil haciendo el punto de que antisymmetry puede ser deducido a partir de la desaparición de al $v_i = v_j$. En la práctica, cuando la fuga en la igualdad de los argumentos que se conoce, sesgar-simetría es también conocido sin tener que especialmente deducir.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X