11 votos

Relativa Independencia Lineal Afín a la Independencia

Pregunta: (a partir De una Introducción a Convexa Polytopes)

Deje $(x_{1},...,x_{n})$ $n$- de la familia de los puntos de $\mathbb{R}^d$ donde $x_{i} = (\alpha_{1i},...,\alpha_{di})$, e $\bar{x_{i}} =(1,\alpha_{1i},...,\alpha_{di})$ donde $i=1,...,n$. Muestran que el $n$familia $(x_{1},...,x_{n})$ es affinely independientes si y sólo si el $n$familia $(\bar{x_{1}},...,\bar{x_{n}})$ de los vectores de $\mathbb{R}^{d+1}$ es linealmente independiente.

-

Aquí es lo que tengo hasta ahora, es en su mayoría sólo escribir definiciones, si me puede dar algunos consejos de cómo puedo empezar con el problema de que sería genial.

$(\Rightarrow)$ Asume que para$x_{i} = (\alpha_{1i},...,\alpha_{di})$, $n$familia $(x_{1},...,x_{n})$ es affinely independiente. A continuación, una combinación lineal $\lambda_{1}x_{1} + ... + \lambda_{n}x_{n} = 0$ sólo puede igual al vector cero al $\lambda_{1} + ... + \lambda_{n} = 0$. Un equivalente de la caracterización de los afín a la independencia es que el $(n-1)$familias $(x_{1}-x_{i},...,x_{i-1}-x_{i},x_{i+1}-x_{i},...,x_{n}-x_{i})$ son linealmente independientes. Queremos demostrar que para$\bar{x_{i}}=(1,\alpha_{1i},...,\alpha_{di})$, $n$familia $(\bar{x}_{1},...,\bar{x}_{n})$ de los vectores de $\mathbb{R}^{d+1}$ es linealmente independiente.

11voto

cjstehno Puntos 131

Así, queremos demostrar que estas dos afirmaciones son equivalentes:

  • (a) Los puntos de $x_1, \dots , x_n \in \mathbb{R}^d$ son affinely independiente.

  • (b) Los vectores $\overline{x}_1, \dots , \overline{x}_n \in \mathbb{R}^{d+1}$ son linealmente independientes.

Donde $\overline{x}_i = (1, x_i),\ i = 1, \dots , n$.

Vamos a ir.

$\mathbf{(a)\Longrightarrow (b)}$. Deje $\lambda_1, \dots , \lambda_n \in \mathbb{R}$ ser tal que

$$ \lambda_1 \overline{x}_1 + \dots + \lambda_n \overline{x}_n = 0 \ . \qquad \qquad \qquad [1] $$

Tenemos que mostrar que $\lambda_1 = \dots = \lambda_n = 0$. Pero $[1]$ significa

$$ \lambda_1 (1, x_1) + \dots + \lambda_n (1, x_n) = (0, 0) \ , $$

donde $(0,0) \in \mathbb{R} \times \mathbb{R}^d$. Y esto es equivalente a

$$ \lambda_1 x_1 + \dots + \lambda_n x_n = 0 \qquad \text{y} \qquad \lambda_1 + \dots + \lambda_n = 0 \ . $$

Ahora, $x_i = x_i - 0 = \overrightarrow{0x_i} , \ i = 1, \dots , n$. (Aquí, $0 \in \mathbb{R}^d$.) Así que, ya que estamos asumiendo $(a)$, se deduce que

$$ \lambda_1 = \dots = \lambda_n = 0 \ . $$

$\mathbf{(b)\Longrightarrow (a)}$. Deje $p \in \mathbb{R}^d$ ser cualquier punto. Tenemos que demostrar que

$$ \lambda_1 \overrightarrow{ px}_1 + \dots + \lambda_n \overrightarrow{ px}_n = 0 \qquad \text{y} \qquad \lambda_1 + \dots + \lambda_n = 0 \qquad \qquad \qquad [2] $$

implica $\lambda_1 = \dots = \lambda_n = 0$.

Si el punto de $p$$0 \in \mathbb{R}^d$, la conclusión debe ser clara, ya que, en este caso, $\overrightarrow{px_i} = x_i, \ i = 1, \dots , n$, e $[2]$ lee como sigue:

$$ \lambda_1 x_1 + \dots + \lambda_n x_n = 0 \qquad \text{y} \qquad \lambda_1 + \dots + \lambda_n = 0 \ . \qquad \qquad \qquad [3] $$

A partir de aquí, podemos hacer el mismo razonamiento que en la prueba anterior, pero backwars: estas dos cosas implican

$$ \lambda_1 (1, x_1) + \dots + \lambda_n (1, x_n) = (0, 0) \ . $$

Que es el mismo que

$$ \lambda_1 \overline{x}_1 + \dots + \lambda_n \overline{x}_n = 0 \ . $$

Y esto implica

$$ \lambda_1 = \dots = \lambda_n = 0\ , $$

ya que estamos asumiendo $(b)$.

Por lo tanto, tenemos que mostrar que el caso particular $[3]$ ya implica el general $[2]$, para cada $p\in \mathbb{R}^d$. Pero esto es obvio:

$$ \lambda_1 \overrightarrow{ px}_1 + \dots + \lambda_n \overrightarrow{ px}_n = \lambda_1 (x_1 -p ) + \dots + \lambda_n (x_n - p) $$

Que es

$$ \lambda_1 x_1 + \dots + \lambda_n x_n - (\lambda_1 + \dots + \lambda_n)p = \lambda_1 x_1 + \dots + \lambda_n x_n = 0 \ . $$

3voto

clintp Puntos 5127

($\Rightarrow$): Supongamos $(\bar{x_1},\ldots,\bar{x_n})$ es linealmente dependiente, por lo que tenemos $$\left(\sum\limits_{i=1}^n c_i,\sum\limits_{i=1}^n c_i\alpha_{1i},\ldots,\sum\limits_{i=1}^n c_i\alpha_{ni}\right) = \sum\limits_{i=1}^nc_i\bar{x_i} = 0$$ para un conjunto de coeficientes de $c_i\in\mathbb{R}$, lo que $$\sum\limits_{i=1}^nc_ix_i = \left(\sum\limits_{i=1}^n c_i\alpha_{1i},\ldots,\sum\limits_{i=1}^n c_i\alpha_{ni}\right) = 0\text{ and }\sum\limits_{i=1}^n c_i = 0$$ por lo $(x_1,\ldots,x_n)$ es affinely dependiente. Por lo tanto, si $(x_1,\ldots,x_n)$ es affinely independiente, $(\bar{x_1},\ldots,\bar{x_n})$ deben ser linealmente independientes.

($\Leftarrow$): Supongamos $(x_1,\ldots,x_n)$ es affinely dependiente, por lo que tenemos $$\sum\limits_{i=1}^nc_ix_i = 0\text{ and }\sum\limits_{i=1}^nc_i=0$$ for some set of coefficients $c_i\in\mathbb{R}$. Then $$\sum\limits_{i=1}^nc_i\bar{x_i} = \left(\sum\limits_{i=1}^n c_i,\sum\limits_{i=1}^n c_i\alpha_{1i},\ldots,\sum\limits_{i=1}^n c_i\alpha_{ni}\right) = (0,0,\ldots,0) = 0$$ so $(\bar{x_1},\ldots,\bar{x_n})$ is linearly dependent. Hence if $(\bar{x_1},\ldots,\bar{x_n})$ is linearly independent, $(x_1,\ldots,x_n)$ debe ser affinely independiente.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X