¿Dónde puedo encontrar una lista de errores tipográficos para Álgebra lineal , 2ª edición, de Hoffman y Kunze? He buscado en Google, pero sin éxito.
Respuestas
¿Demasiados anuncios?Esta lista no repite las erratas mencionadas en las otras respuestas.
Capítulo 1
- Página 6, último párrafo.
Una operación de fila elemental es, por tanto, un tipo especial de función (regla) $e$ que se asocian a cada $m \times n$ matriz . . .
Debería ser "asociados".
- Página 10, prueba del Teorema 4, segundo párrafo.
digamos que se produce en la columna $k_r \neq k$ .
Debe ser $k' \neq k$ .
- Página 18, último párrafo.
Si $B$ es un $n \times p$ las columnas de $B$ son los $1 \times n$ matrices . . .
Debe ser $n \times 1$ .
- Página 24, declaración del segundo corolario.
Dejemos que $\text{A} = \text{A}_1 \text{A}_2 \cdots A_\text{k}$ , donde $\text{A}_1 \dots,A_\text{k}$ son . . .
El formato de $A_\text{k}$ es incorrecto en ambos casos. Además, debería haber una coma después de $\text{A}_1$ en segunda instancia. Por lo tanto, debería ser " Dejemos que $\text{A} = \text{A}_1 \text{A}_2 \cdots \text{A}_\text{k}$ , donde $\text{A}_1, \dots,\text{A}_\text{k}$ son . . .".
Capítulo 2
- Página 52, debajo de la ecuación (2-16).
Así, a partir de (2-16) y del teorema 7 del capítulo 1
Debería ser el Teorema 13.
- Página 57, penúltima ecuación mostrada.
$$ \beta = (0,\dots,0,\ \ b_{k_s},\dots,b_n), \quad b_{k_s} \neq 0$$
El formato de la derecha no es correcto. Hay demasiado espacio antes de $b_{k_s}$ . Debe ser $$\beta = (0,\dots,0,b_{k_s},\dots,b_n), \quad b_{k_s} \neq 0$$ en su lugar.
- Página 57, última ecuación mostrada.
$$ \beta = (0,\dots,0,\ \ b_t,\dots,b_n), \quad b_t \neq 0.$$
El formato de la derecha no es correcto. Hay demasiado espacio antes de $b_t$ . En cambio, debería ser $$\beta = (0,\dots,0,b_t,\dots,b_n), \quad b_t \neq 0.$$
- Página 62, penúltimo párrafo.
Así que $\beta = (b_1,b_2,b_3,b_4)$ está en $W$ si y sólo si $b_3 - 2b_1$ . . . .
Debe ser $b_3 = 2b_1$ .
Capítulo 3
- Página 76, primer párrafo.
dejar $A_{ij},\dots,A_{mj}$ sean las coordenadas del vector
Debe ser $A_{1j},\dots,A_{mj}$ .
- Página 80, ejemplo 11.
Por ejemplo, si $U$ es la operación "quitar el término constante y dividir por $x$ ': $$ U(c_0 + c_1 x + \dots + c_n x^n) = c_1 + c_2 x + \dots + c_n x^{n-1}$$ entonces
Hay una sutileza en la frase dentro de los apóstrofes: ¿qué pasa si $x = 0$ ? En lugar de tener que especificar para este caso por separado, la frase puede ser redactada más simplemente como, "Por ejemplo, si $U$ es el operador definido por $$U(c_0 + c_1 x + \dots + c_n x^n) = c_1 + c_2 x + \dots + c_n x^{n-1}$$ entonces ".
- Página 81, última línea.
(iv) Si $\{ \alpha_1,\dots,\alpha_{\text{n}}\}$ es la base para $\text{V}$ entonces $\{\text{T}\alpha_1,\dots,\text{T}\alpha_{\text{n}}\}$ es una base para $\text{W}$ .
Debe decir "iv) Si $\{ \alpha_1,\dots,\alpha_{\text{n}}\}$ es una base para $\text{V}$ Entonces ".
- Página 90, penúltimo párrafo.
También debemos señalar que hemos demostrado un caso especial del Teorema 13 en el Ejemplo 12.
Debería ser "en el ejemplo 10".
- Página 91, primer párrafo.
Pues, el operador de identidad $I$ está representada por la matriz identidad en cualquier base de orden, y por tanto
Debería ser "ordenado".
- Página 92, enunciado del teorema 14.
Dejemos que $\text{V}$ sea un espacio vectorial de dimensión finita sobre el campo $\text{F}$ y que $$\mathscr{B} = \{ \alpha_1,\dots,\alpha \text{i} \} \quad \textit{and} \quad \mathscr{B}'=\{ \alpha'_1,\dots,\alpha'_\text{n}\}$$ ser bases de pedidos . . .
Debe ser $\mathscr{B} = \{ \alpha_1,\dots,\alpha_\text{n}\}$ .
- Página 100, primer párrafo.
Si $f$ está en $V^*$ y dejamos que $f(\alpha_i) = \alpha_i$ , entonces cuando
Debe ser $f(\alpha_i) = a_i$ .
- Página 101, párrafo que sigue a la definición.
Si $S = V$ entonces $S^0$ es el subespacio cero de $V^*$ . (Esto es fácil de ver cuando $V$ es de dimensión finita).
Es igualmente fácil ver esto cuando $V$ es de dimensión infinita, por lo que la afirmación entre paréntesis es redundante. Quizá los autores querían decir que $\{ v \in V : f(v) = 0\ \forall\ f \in V^* \}$ es el subespacio cero de $V$ . Esta pregunta pide detalles sobre este punto.
- Página 102, prueba del segundo corolario.
Por los corolarios anteriores (o por la prueba del teorema 16) existe un funcional lineal $f$ tal que $f(\beta) = 0$ para todos $\beta$ en $W$ pero $f(\alpha) \neq 0$ . . . .
Debería ser "corolario", ya que sólo hay un corolario anterior. También, $W$ debe ser sustituido por $W_1$ .
- Página 112, enunciado del teorema 22.
(i) rango $(T^t) = $ rango $(T)$
Debe haber un punto y coma al final de la línea.
Capítulo 4
- Página 118, última ecuación mostrada, tercera línea.
$$=\sum_{i=0}^n \sum_{j=0}^i f_i g_{i-j} h_{n-i} $$
Debe ser $f_j$ . Tampoco está claro de inmediato cómo pasar de esta línea a la siguiente.
- Página 126, prueba del Teorema 3.
Por definición, el mapeo es onto, y si $f$ , $g$ pertenecen a $F[x]$ es evidente que $$(cf+dg)^\sim = df^\sim + dg^\sim$$ para todos los escalares $c$ y $d$ . . . .
Debe ser $(cf+dg)^\sim = cf^\sim + dg^\sim$ .
- Página 126, prueba del Teorema 3.
Supongamos entonces que $f$ es un polinomio de grado $n$ tal que $f' = 0$ . . . .
Debe ser $f^\sim = 0$ .
- Página 128, enunciado del teorema 4.
(i) $f = dq + r$ .
El punto final debe ser un punto y coma.
-
Página 129, párrafo anterior al enunciado del Teorema 5. La notación $D^0$ debe introducirse, por lo que la frase "También utilizamos la notación $D^0 f = f$ " puede añadirse al final del párrafo.
-
Página 131, primera ecuación mostrada, segunda línea.
$$ = \sum_{m = 0}^{n-r} \frac{(D^m g)}{m!}(x-c)^{r+m} $$
Debe haber un punto al final de la línea.
- Página 135, prueba del teorema 8.
Desde $(f,p) = 1$ hay polinomios
Debe ser $\text{g.c.d.}{(f,p)} = 1$ .
- Página 137, primer párrafo.
Esta descomposición también es claramente única, y se denomina descomposición primaria de $f$ . . . .
En aras de la claridad, se puede añadir la siguiente frase después de la línea citada: "En adelante, siempre que nos refiramos al factorización de primos de un polinomio mónico no escalar nos referimos a la descomposición primaria del polinomio".
-
Página 137, prueba del teorema 11. Se utiliza la regla de la cadena para la derivada formal de un producto de polinomios, pero esto necesita una prueba .
-
Página 139, ejercicio 7.
Utiliza el ejercicio 7 para demostrar lo siguiente. . . .
Debería ser "Usa el ejercicio 6 para demostrar lo siguiente. . . ."
Capítulo 5
- Página 142, penúltima ecuación mostrada.
$$\begin{align} D(c\alpha_i + \alpha'_{iz}) &= [cA(i,k_i) + A'(i,k_i)]b \\ &= cD(\alpha_i) + D(\alpha'_i) \end{align}$$
El lado izquierdo debe ser $D(c\alpha_i + \alpha'_i)$ .
- Página 166, primera ecuación mostrada.
$$\begin{align*}L(\alpha_1,\dots,c \alpha_i + \beta_i,\dots,\alpha_r) &= cL(\alpha_1,\dots,\alpha_i,\dots,\alpha_r {}+{} \\ &\qquad \qquad \qquad \qquad L(\alpha_1,\dots,\beta_i,\dots,\alpha_r)\end{align*}$$
Al primer término de la derecha le falta un corchete de cierre, por lo que debería ser $cL(\alpha_1,\dots,\alpha_i,\dots,\alpha_r)$ .
- Página 167, segunda ecuación mostrada, tercera línea.
$${}={} \sum_{j=1}^n A_{1j} L\left( \epsilon_j, \sum_{j=1}^n A_{2k} \epsilon_k, \dots, \alpha_r \right) $$
El segundo sumatorio debe pasar por el índice $k$ en lugar de $j$ .
-
Página 170, prueba del lema. Para demostrar que $\pi_r L \in \Lambda^r(V)$ los autores demuestran que $(\pi_r L)_\tau = (\operatorname{sgn}{\tau})(\pi_rL)$ para cada permutación $\tau$ de $\{1,\dots,r\}$ . Esto implica que $\pi_r L$ se alterna sólo cuando $K$ es un anillo tal que $1 + 1 \neq 0$ . Una prueba sobre anillos conmutativos arbitrarios con identidad sigue siendo necesario.
-
Página 170, primer párrafo después de la prueba del lema.
En (5-33) demostramos que el determinante
Debería ser (5-34).
- Página 171, ecuación (5-39).
$$\begin{align} D_J &= \sum_\sigma (\operatorname{sgn} \sigma)\ f_{j_{\sigma 1}} \otimes \dots \otimes f_{j_{\sigma r}} \tag{5–39}\\ &= \pi_r (f_{j_1} \otimes \dots \otimes f_{j_r}) \end{align}$$
La etiqueta de la ecuación debe estar centrada en lugar de estar alineada en la primera línea.
- Página 173, ecuación (5-42)
$$ D_J(\alpha_1,\dotsc,\alpha_r) = \sum_\sigma (\operatorname{sgn} \sigma) A(1,j_{\sigma 1})\dotsm A(n,j_{\sigma n}) \tag{5-42}$$
Sólo hay $r$ términos en el producto. Por lo tanto, la ecuación debería ser: $D_J(\alpha_1,\dotsc,\alpha_r) = \sum_\sigma (\operatorname{sgn} \sigma) A(1,j_{\sigma 1})\dotsm A(r,j_{\sigma r})$ .
- Página 174, debajo de la segunda ecuación mostrada.
La demostración del lema que sigue a la ecuación (5-36) muestra que para cualquier $r$ -forma lineal $L$ y cualquier permutación $\sigma$ de $\{1,\dots,r\}$ $$ \pi_r(L_\sigma) = \operatorname{sgn} \sigma\ \pi_r(L) $$
La prueba del lema muestra en realidad $(\pi_r L)_\sigma = \operatorname{sgn} \sigma\ \pi_r(L)$ . Este hecho todavía necesita pruebas . Además, debería haber un punto al final de la ecuación mostrada.
- Página 174, debajo de la tercera ecuación mostrada.
Por lo tanto, $D_{ij} \cdot f_k = 2\pi_3(f_i \otimes f_j \otimes f_k)$ .
Esto no es inmediato a partir de las ecuaciones anteriores. Los autores asumen implícitamente la identidad $(f_{j_1} \otimes \dots \otimes f_{j_r})_\sigma = f_{j_{\sigma^{-1} 1}}\! \otimes \dots \otimes f_{j_{\sigma^{-1} r}}$ . Esta identidad necesita una prueba .
- Página 174, sexta ecuación mostrada.
$$(D_{ij} \cdot f_k) \cdot f_l = 6 \pi_4(f_i \otimes f_j \otimes f_k \otimes f_l)$$
El factor $6$ debe ser reemplazado por $12$ .
- Página 174, última ecuación mostrada.
$$ (L \otimes M)_{(\sigma,\tau)} = L_\sigma \otimes L_\tau$$
El lado derecho debe ser $L_\sigma \otimes M_\tau$ .
- Página 177, debajo de la tercera ecuación mostrada.
Por lo tanto, ya que $(N\sigma)\tau = N\tau \sigma$ para cualquier $(r+s)$ -forma lineal
Debe ser $(N_\sigma)_\tau = N_{\tau \sigma}$ .
- Página 179, última ecuación mostrada.
$$ (L \wedge M)(\alpha_1,\dots,\alpha_n) = \sum (\operatorname{sgn} \sigma) L(\alpha \sigma_1,\dots,\alpha_{\sigma r}) M(\alpha_{\sigma(r+1)},\dots,\alpha_{\sigma_n}) $$
El lado derecho debe tener $L(\alpha_{\sigma 1},\dots,\alpha_{\sigma r})$ y $M(\alpha_{\sigma (r+1)},\dots,\alpha_{\sigma n})$ .
Capítulo 6
- Página 183, primer párrafo.
Si el espacio subyacente $V$ es de dimensión finita, $(T-cI)$ no puede ser $1 : 1$ precisamente cuando su determinante es diferente de $0$ .
En cambio, debería ser "precisamente cuando su determinante es $0$ ."
- Página 186, prueba del segundo lema.
uno espera que $\dim W < \dim W_1 + \dots \dim W_k$ debido a las relaciones lineales . . .
Debe ser $\dim W \leq \dim W_1 + \dots + \dim W_k$ .
- Página 194, enunciado del Teorema 4 (Cayley-Hamilton).
Dejemos que $\text{T}$ sea un operador lineal sobre un espacio vectorial de dimensión finita $\text{V}$ . . . .
Debería ser "de dimensiones finitas".
- Página 195, primera ecuación mostrada.
$$T\alpha_i = \sum_{j=1}^n A_{ji} \alpha_j,\quad 1 \leq j \leq n.$$
Debe ser $1 \leq i \leq n$ .
- Página 195, sobre el último párrafo.
desde $f$ es el determinante de la matriz $xI - A$ cuyas entradas son los polinomios $$(xI - A)_{ij} = \delta_{ij} x - A_{ji}.$$
Aquí $xI-A$ debe ser reemplazado $(xI-A)^t$ en ambos lugares, y podría decir "desde $f$ es también el determinante de" para mayor claridad.
- Página 203, prueba del Teorema 5, último párrafo.
Las entradas diagonales $a_{11},\dots,a_{1n}$ son los valores característicos, . . .
Debe ser $a_{11},\dots,a_{nn}$ .
- Página 207, prueba del teorema 7.
este teorema tiene la misma demostración que el teorema 5, si se sustituye $T$ por $\mathscr{F}$ .
Tendría más sentido si dijera "sustituye a $T$ por $T \in \mathscr{F}$ ."
- Página 207-208, prueba del teorema 8.
Podríamos demostrar este teorema adaptando el lema anterior al Teorema 7 al caso diagonalizable, igual que adaptamos el lema anterior al Teorema 5 al caso diagonalizable para demostrar el Teorema 6.
La adaptación del lema anterior al Teorema 5 no se hace explícitamente. Está oculto en la prueba del Teorema 6 .
- Página 212, enunciado del teorema 9.
y si dejamos que $\text{W}_\text{i}$ sea el rango de $\text{E}_\text{i}$ entonces $\text{V} = \text{W}_\text{i} \oplus \dots \oplus \text{W}_\text{k}$ .
Debe ser $\text{V} = \text{W}_1 \oplus \dots \oplus \text{W}_\text{k}$ .
- Página 216, último párrafo.
Una parte del Teorema 9 dice que para un operador diagonalizable
Debería ser el Teorema 11.
- Página 220, enunciado del teorema 12.
Dejemos que $\text{p}$ sea el polinomio mínimo para $\text{T}$ , $$\text{p} = \text{p}_1^{\text{r}_1} \cdots \text{p}_k^{r_k}$$ donde el $\text{p}_\text{i}$ son polinomios monos irreducibles distintos sobre $\text{F}$ y el $\text{r}_\text{i}$ son enteros positivos. Sea $\text{W}_\text{i}$ sea el espacio nulo de $\text{p}_\text{i}(\text{T})^{\text{r}_j}$ , $\text{i} = 1,\dots,\text{k}$ .
La ecuación mostrada tiene un formato incorrecto. Debería decir $\text{p} = \text{p}_1^{\text{r}_1} \cdots \text{p}_\text{k}^{\text{r}_\text{k}}$ . Además, en la segunda frase debería ser $\text{p}_\text{i}(\text{T})^{\text{r}_\text{i}}$ .
- Página 221, debajo de la última ecuación mostrada.
porque $p^{r_i} f_i g_i$ es divisible por el polinomio mínimo $p$ .
Debe ser $p_i^{r_i} f_i g_i$ .
Capítulo 7
-
Página 233, prueba del Teorema 3, última ecuación mostrada en el enunciado del Paso 1. El formato de " $\alpha$ en $V$ " debajo de la " $max$ El operador "en el lado derecho" es incorrecto. Debería ser " $\alpha$ en $\text{V}$ ".
-
Página 233, prueba del Teorema 3, ecuación mostrada en el enunciado del Paso 2. El formato de " $1 \leq i < k$ " debajo de la $\sum$ El operador de la derecha es incorrecto. Debería ser " $1 \leq \text{i} < \text{k}$ ".
-
Página 238, párrafo siguiente al corolario.
Si tenemos el operador $T$ y la descomposición de la suma directa del Teorema 3, sea $\mathscr{B}_i$ sea la "base cíclica ordenada"
Debería ser "del Teorema 3 con $W_0 = \{ 0 \}$ , . . .".
- Página 239, ejemplo 2.
Si $T = cI$ entonces para dos vectores lineales independientes cualesquiera $\alpha_1$ y $\alpha_2$ en $V$ tenemos
Debería ser "linealmente".
- Página 240, penúltima ecuación mostrada.
$$f = (x-c_1)^{d_1} \cdots (x - c_k)^{d_k}$$
Sólo debería ser $(x-c_1)^{d_1} \cdots (x - c_k)^{d_k}$ porque más adelante (en la página 241) la carta $f$ se utiliza de nuevo, esta vez para denotar un polinomio arbitrario.
- Página 244, último párrafo.
donde $f_i$ es un polinomio, cuyo grado podemos suponer que es menor que $k_i$ . Desde $N\alpha = 0$ para cada $i$ tenemos
Debería ser "donde $f_i$ es un polinomio, cuyo grado podemos suponer que es menor que $k_i$ siempre que $f_i \neq 0$ . Desde $N\alpha = 0$ para cada $i$ tal que $f_i \neq 0$ tenemos ".
- Página 245, primer párrafo.
Así, $xf_i$ es divisible por $x^{k_i}$ y como $\deg (f_i) > k_i$ esto significa que $$f_i = c_i x^{k_i - 1}$$ donde $c_i$ es un escalar.
Debe ser $\deg (f_i) < k_i$ . Además, debería añadirse la siguiente frase al final "Si $f_j = 0$ , entonces podemos tomar $c_j = 0$ para que $f_j = c_j x^{k_j - 1}$ también en este caso".
- Página 245, último párrafo.
Además, los tamaños de estas matrices disminuirán a medida que se lea de izquierda a derecha.
Debería ser "Además, los tamaños de estas matrices no aumentarán a medida que se lea de izquierda a derecha".
- Página 246, primer párrafo.
Además, dentro de cada $A_i$ los tamaños de las matrices $J_j^{(i)}$ disminuyen a medida que $j$ aumenta.
Debería ser "Además, dentro de cada $A_i$ los tamaños de las matrices $J_j^{(i)}$ no aumentan como $j$ aumenta".
- Página 246, tercer párrafo.
La singularidad la vemos de la siguiente manera.
Esta parte no está claramente escrita. Lo que los autores quieren demostrar es lo siguiente. Supongamos que el operador lineal $T$ se representa en alguna otra base ordenada por la matriz $B$ en forma de Jordan, donde $B$ es la suma directa de las matrices $B_1,\dots,B_s$ . Supongamos que cada $B_i$ es un $e_i \times e_i$ que es una suma directa de matrices elementales de Jordan con valor característico $\lambda_i$ . Supongamos que la matriz $B$ induce la descomposición invariante de suma directa $V = U_1 \oplus \dots \oplus U_s$ . Entonces, $s = k$ y hay una permutación $\sigma$ de $\{ 1,\dots,k\}$ tal que $\lambda_i = c_{\sigma i}$ , $e_i = d_{\sigma i}$ , $U_i = W_{\sigma i}$ y $B_i = A_{\sigma i}$ para cada $1 \leq i \leq k$ .
- Página 246, tercer párrafo.
El hecho de que $A$ es la suma directa de las matrices $\text{A}_i$ nos da una descomposición de suma directa. . .
El formato de $\text{A}_i$ es incorrecto. Debería ser $A_i$ .
- Página 246, tercer párrafo.
entonces la matriz $A_i$ está determinada de forma única como la forma racional de $(T_i - c_i I)$ .
Debería ser "está determinada únicamente por la forma racional ".
- Página 248, ejemplo 7.
Desde $A$ es la suma directa de dos $2 \times 2$ está claro que el polinomio mínimo para $A$ es $(x-2)^2$ .
Debería decir "Desde $A$ es la suma directa de dos $2 \times 2$ matrices cuando $a \neq 0$ y de una $2 \times 2$ matriz y dos $1 \times 1$ matrices cuando $a = 0$ es evidente que el polinomio mínimo para $A$ es $(x-2)^2$ en cualquier caso".
- Página 249, primer párrafo.
Entonces, como señalamos en el ejemplo 15, capítulo 6, el teorema de la descomposición primaria nos dice que
Debería ser el ejemplo 14.
- Página 249, última ecuación mostrada
$$\begin{align} Ng &= (r-1)x^{r-2}h \\ \vdots\ & \qquad \ \vdots \\ N^{r-1}g &= (r-1)! h \end{align}$$
Debería haber un punto al final.
- Página 257, definición.
(b) en la diagonal principal de $\text{N}$ aparecen (en orden) los polinomios $\text{f}_1,\dots,\text{f}_l$ tal que $\text{f}_\text{k}$ divide $\text{f}_{\text{k}+1}$ , $1 \leq \text{k} \leq l - 1$ .
El formato de $l$ es incorrecto en ambos casos. Por lo tanto, debería ser $\text{f}_1,\dots,\text{f}_\text{l}$ y $1 \leq \text{k} \leq \text{l} - 1$ .
- Página 259, párrafo que sigue a la demostración del teorema 9.
Dos cosas que hemos visto proporcionan pistas sobre cómo los polinomios $f_1,\dots,f_{\text{l}}$ en el Teorema 9 están determinadas de forma única por $M$ .
El formato de $l$ es incorrecto. Debería ser $f_1,\dots,f_l$ .
- Página 260, tercer párrafo.
Para el caso de una operación de tipo (c), observe que.
Debería ser (b).
- Página 260, declaración del Corolario.
Los polinomios $\text{f}_1,\dots,\text{f}_l$ que se encuentran en la diagonal principal de $N$ son
El formato de $l$ es incorrecto. Debería ser $\text{f}_1,\dots,\text{f}_\text{l}$ .
- Página 265, primera ecuación mostrada, tercera línea.
$$ = (W \cap W_1) + \dots + (W \cap W_k) \oplus V_1 \oplus \dots \oplus V_k.$$
Debe ser $$ = (W \cap W_1) \oplus \dots \oplus (W \cap W_k) \oplus V_1 \oplus \dots \oplus V_k.$$
- Página 266, prueba del segundo lema. Se utiliza la regla de la cadena para la derivada formal de un producto de polinomios, pero esto necesita una prueba .
Capítulo 8
- Página 274, última ecuación mostrada, primera línea.
$$ (\alpha | \beta) = \left( \sum_k x_n \alpha_k \bigg|\, \beta \right) $$
Debe ser $x_k$ .
- Página 278, primera línea.
Ahora usando (c) encontramos que
Debería ser (iii).
- Página 282, segunda ecuación mostrada, penúltima línea.
$$ = (2,9,11) - 2(0,3,4) - -4,0,3) $$
El lado derecho debe ser $(2,9,11) - 2(0,3,4) - (-4,0,3)$ .
- Página 284, primera ecuación mostrada.
$$ \alpha = \sum_k \frac{(\beta | \alpha_k)}{\| \alpha_k \|^2} \alpha_k $$
Esta ecuación debe ser etiquetada como (8-11).
- Página 285, párrafo que sigue a la primera definición.
Para $S$ no está vacía, ya que contiene $0$ ; . . .
Debe ser $S^\perp$ .
- Página 285, línea siguiente a la primera ecuación mostrada.
así $c\alpha + \beta$ también se encuentra en $S$ . . . .
Debe ser $S^\perp$ .
- Página 289, Ejercicio 7, ecuación mostrada.
$$\| (x_1,x_2 \|^2 = (x_1 - x_2)^2 + 3x_2^2. $$
El lado izquierdo debe ser $\| (x_1,x_2) \|^2$ .
- Página 316, primera línea.
matriz $\text{A}$ de $\text{T}$ en la base $\mathscr{B}$ es triangular superior. . . .
Debería ser "triangular superior".
- Página 316, enunciado del teorema 21.
Entonces existe una base ortonormal para $\text{V}$ en la que la matriz de $\text{T}$ es triangular superior.
Debería ser "triangular superior".
Capítulo 9
- Página 344, declaración del Corolario.
Bajo los supuestos del teorema, sea $\text{P}_\text{j}$ sea la proyección ortogonal de $\text{V}$ en $\text{V}(\text{r}_\text{j})$ , $(1 \leq \text{j} \leq \text{k})$ . . . .
Los paréntesis alrededor de $1 \leq \text{j} \leq \text{k}$ debe ser eliminado.
Estoy usando la segunda edición. Creo que la definición antes del Teorema $9$ (Capítulo $1$ ) debe ser
Definición. Un $m\times m$ se dice que la matriz es una matriz elemental si se puede obtener del $m\times m$ matriz de identidad por medio de una sola operación de fila elemental.
en lugar de
Definición. Un $\color{red}{m\times n}$ se dice que la matriz es una matriz elemental si se puede obtener del $m\times m$ matriz de identidad por medio de una sola operación de fila elemental.
Comprueba este pregunta para más detalles.
Quería añadir dos observaciones más que creo que son erratas.
- Capítulo 2, Ejemplo 16, Pg. 43
Ejemplo 16. A continuación daremos un ejemplo de una base infinita. Sea $F$ sea un subcampo de los números complejos y sea $V$ sea el espacio de funciones polinómicas sobre $F.$ ( $\dots \dots$ )
Dejemos que $\color{red}{ f_k(x)=x_k},k=0,1,2,\dots.$ El conjunto infinito $\{f_0,f_1,f_2,\dots \}$ es una base para $V.$
Debería haber sido $\color{red}{f_k(x)=x^k}$ .
- Capítulo 1, Teorema 8
$$[A(BC)_{ij}]=\sum_r A_{ir}(BC)_{rj}=\color{red}{\sum_r A_{ir}\sum_s B_{rj}C_{rj}}$$
Debería haber sido
$$[A(BC)_{ij}]=\sum_r A_{ir}(BC)_{rj}=\color{red}{\sum_r A_{ir}\sum_s B_{rs}C_{sj}}$$
(Resaltar en rojo la errata en Álgebra Lineal de Hoffman y Kunze, página 23)
Debe ser $$A=E_1^{-1}E_2^{-1}...E_k^{-1}$$
Dejemos que $A=\left[\begin{matrix}2&3\\4&5\end{matrix}\right]$
Operaciones de fila elementales:
$R_2\leftrightarrow R_2-2R_1, R_1\leftrightarrow R_1+3R_2, R_1 \leftrightarrow R_1/2, R_2 \leftrightarrow R_2*(-1)$ transforma $A$ en $I$
Estas cuatro operaciones de fila en $I$ dar
$E_1=\left[\begin{matrix}1&0\\-2&1\end{matrix}\right]$, $E_2=\left[\begin{matrix}1&3\\0&1\end{matrix}\right]$ , $E_3=\left[\begin{matrix}1/2&0\\0&1\end{matrix}\right]$, $E_4=\left[\begin{matrix}1&0\\0&-1\end{matrix}\right]$
$E_1^{-1}=\left[\begin{matrix}1&0\\2&1\end{matrix}\right]$, $E_2^{-1}=\left[\begin{matrix}1&-3\\0&1\end{matrix}\right]$ , $E_3^{-1}=\left[\begin{matrix}2&0\\0&1\end{matrix}\right]$, $E_4^{-1}=\left[\begin{matrix}1&0\\0&-1\end{matrix}\right]$
Ahora, $ E_1^{-1}.E_2^{-1}.E_3^{-1}.E_4^{-1}=\left[\begin{matrix}2&3\\4&5\end{matrix}\right]$
pero, $ E_4^{-1}.E_3^{-1}.E_2^{-1}.E_1^{-1}=\left[\begin{matrix}-10&-6\\-2&-1\end{matrix}\right]$
- Ver respuestas anteriores
- Ver más respuestas