50 votos

¿Hay una lista de todas las erratas en Hoffman y Kunze, Álgebra lineal?

¿Dónde puedo encontrar una lista de errores tipográficos para Álgebra lineal , 2ª edición, de Hoffman y Kunze? He buscado en Google, pero sin éxito.

3voto

Nerdfighter Puntos 46

Capítulo 1

Página 3, definición de característica.

. . menos n . . .

Debe ser lo menos positivo n .

Capítulo 2

  1. Página 39, Ejercicio 3.

. . . R $^5$ . . .

Debe ser R $^4$ .

  1. Página 40, ejercicio 6(b).

Demostrar que un subespacio de R $^2$ es R $^2$ o el subespacio cero, o consiste en todos los múltiplos escalares de algún vector fijo en R $^2$ . (El último tipo de subespacio es, intuitivamente, una línea recta que pasa por el origen).

La observación entre paréntesis es falsa si el vector fijo es el origen.

  1. Páginas 61 y 65.

La presentación de las matrices de filas es incoherente, ya que a veces las entradas están separadas por comas y otras no.

Capítulo 3

Página 96, ejercicio 9.

. y demostrar que S \= UTU $^{-1}$ .

Debe ser S \= U $^{-1}$ TU .

Capítulo 4

  1. Página 129, Teorema 5, segunda frase.

Si f es un polinomio sobre f . . .

Debe ser Si f es un polinomio sobre F . . .

  1. Página 137, ejemplo 11.

. . . es el d.c.g. de los polinomios.

Borrar el punto después de polinomios. Incluyo esta errata aparentemente trivial: ese punto final de la frase provoca los polinomios para referirse a los polinomios anteriores x - a , x - b , x - c La frase es evidentemente falsa, porque me costó un tiempo no despreciable descubrir que la frase no termina hasta cuatro líneas más abajo.

Capítulo 6

  1. Página 191, segundo párrafo completo.

Según el teorema 5 del capítulo 4, . . .

Debería ser el Teorema 7.

  1. Página 198, ejercicio 11.

. . . Sección 6.1, .

Debería ser la sección 6.2.

  1. Página 219, ejercicio 4(b).

. . para f es el producto de los polinomios característicos de f $_1$ , . . ., f $_k.$

Sustituir las tres ocurrencias de f con T . Tenga en cuenta también que la pista se aplica a las tres partes del ejercicio, no sólo a la parte (c) como sugiere el formato.

  1. Página 219, ejercicio 6.

. . . Ejemplo 6 . . .

Debería ser el ejemplo 5.

  1. Página 219, ejercicio 7.

. se extiende

Debe ser es no abarcaba.

Capítulo 7

  1. Página 236, primer párrafo completo.

Hemos dejado para los ejercicios las pruebas de los tres hechos siguientes.

El primer hecho que sigue a esa frase no es en realidad un ejercicio.

  1. Página 244, frase después de (7-24).

. . cuyo tamaño disminuye a medida que $i$ aumenta.

Debe ser los tamaños de los cuales no aumentan como $i$ aumenta.

  1. Página 248, ejemplo 7.

Desde A es la suma directa de dos 2 $\times$ 2, está claro que el polinomio mínimo para A es ( x - 2) $^2$ .

Debería decir: "Dado que la descomposición de A en una suma directa de matrices de tamaño mínimo da como resultado que la mayor de dichas matrices tiene un tamaño de 2 $\times$ 2, está claro que el polinomio mínimo para A es ( x - 2) $^2$ ."

Capítulo 8

  1. Página 273, último párrafo, segunda frase.

Para definirla, primero denotamos la raíz cuadrada positiva de $(\alpha|\alpha)$ por $||\alpha||$ ; . . .

Sería mejor sustituir "positivo" por "principal" en caso de que $\alpha$ es cero. (Mi solución al ejercicio 4(b) de la sección 8.2 utiliza ese cambio).

  1. Página 275, (8-7).

$\sum\limits_{j,k} x_j G_{jk} x_k > 0.$

Debe ser $\sum\limits_{j,k} \overline x_j G_{jk} x_k > 0.$

  1. Página 287, prueba del primer corolario del Teorema 5, tercera frase.

A partir de sus propiedades geométricas, se ve que $I - E$ es una transformación idempotente de $V$ en $W$ .

Debe ser $W^\perp$ .

  1. Página 289, Ejercicio 8.

Encuentre un producto interno en $R^2$ tal que $(\epsilon_1, \epsilon_2) = 2$ .

Hoffman y Kunze utilizan $(\epsilon_1|\epsilon_2)$ para anotar el producto interior hasta este punto del texto.

  1. Página 294, ejemplo 17.

\begin{align} (E\alpha|\beta) & = (E\alpha|E\beta + (1 - E)\beta)\\ & = (E\alpha|E\beta)\\ & = (E\alpha + (1 - E)\alpha|E\beta)\\ & = (\alpha|E\beta).\end{align}

El $1$ s debe ser $I$ s.

  1. Página 295, ejemplo 19.

\begin{align*}(L_M(A)|B) & = \cdots\\ & = (A|L_{M^*}(B)).\end{align*}

Debe ser \begin{align*} (L_M(A)|B) & = \text{tr}(B^* M A)\\ & = \text{tr}((M^* B)^* A)\\ & = (A|L_{M^*}(B)).\end{align*} En consecuencia, suprima la última frase del ejemplo.

  1. Página 296, ejemplo 20.

. . y así $(M_{\bar f})^* = M_f$ .

Debe ser $(M_f)^* = M_{\bar f}$ .

  1. Página 296, ejemplo 21, tercera frase.

Dejemos que $V$ sea el espacio del producto interior del ejemplo 21, . . .

Debería ser el ejemplo 20.

  1. Página 309, ejercicio 3(f).

Para lo cual $\gamma$ es $M_\gamma$ ¿positiva?

A partir de aquí, los autores se refieren a operador positivo o matriz cinco veces en los ejercicios antes de definirlo en la página 329. Sin embargo, aluden al concepto de matriz positiva en la página 275.

  1. Página 315, prueba del Teorema 19, última ecuación mostrada.

$||(T - cI)\alpha|| = ||(T^* - cI)\alpha||$

Debe ser $||(T - cI)\alpha|| = ||(T^* - \overline cI)\alpha||$ .

Capítulo 9

  1. Página 320, prueba del Teorema 1.

Fijar un vector $\beta$ en $V$ . Entonces $\alpha \rightarrow f(\alpha, \beta)$ es una función lineal sobre $V$ . Por el Teorema 6

El razonamiento lógico fluiría mejor si función fueron sustituidos por funcional. Además, el teorema es del capítulo 8.

  1. Página 323, prueba del Teorema 3.

$2f(\alpha, \beta) = 2f(\beta, \alpha)$ .

Debe ser $2f(\alpha, \beta) = 2\overline{f(\beta, \alpha)}$ .

  1. Página 324, Ejercicio 2.

2. Dejemos que $f$ sea la forma en $R^2$ definido por $$f((x_1, y_1), (x_2, y_2)) = x_1 y_1 + x_2 y_2.$$

Debe ser $f((x_1, x_2), (y_1, y_2)) = x_1 y_1 + x_2 y_2$ .

  1. Página 331, ejercicio 7.

7. Dé un ejemplo de un $n \times n$ matriz que tiene todos sus menores principales positivos, pero que no es una matriz positiva.

La redacción del ejercicio parece implicar que no debemos elegir un $n$ sino que se trata de hacer una $n \times n$ que resuelve el ejercicio para cualquier valor de $n$ . Si ese es el caso, entonces es imposible que un $1 \times 1$ matriz para cumplir los requisitos.

  1. Páginas 332 y 333, Teorema 7.

$V = W + W'$

Si no es una errata, al menos sería más claro sustituir las dos ocurrencias de esa ecuación por $V = W \oplus W'$ .

  1. Página 333, quinta línea.

$= c\sum\limits_k A_{jk} f(\alpha_k, \beta) + \sum\limits_k A_{jk} f(\alpha_k, \gamma)$

Debe ser $= c\sum\limits_k A_{jk} \overline{f(\alpha_k, \beta)} + \sum\limits_k A_{jk} \overline{f(\alpha_k, \gamma)}$ .

  1. Página 340, penúltima línea.

$TT^* = c_1 c_1 E_1 + \cdots + c_n c_n E_n$

Debe ser $TT^* = c_1\overline c_1 E_1 + \cdots + c_n\overline c_n E_n$ .

  1. Páginas 343 y 344, primera y quinta frases de la prueba.

. . raíces de $F$ .

Deben ser raíces de $\mathscr F$ . (Esta errata no es trivial porque $\mathscr F$ y $F$ se utilizan ambos en esas páginas y denotan cosas diferentes).

  1. Página 345, prueba del Teorema 16, segunda ecuación mostrada.

$aT + U = \sum\limits_j (ac + d_j)P_j$

Debe ser $aT + U = \sum\limits_j (ac_j + d_j)P_j$

  1. Página 347, Ejercicio 4, enunciado (d).

(d) Si $\alpha$ es un vector

Debe ser un vector no nulo.

  1. Página 350, ecuación en la antepenúltima línea.

$p_j = x_j - c_j$

Debe ser $p_j = x - c_j$ .

  1. Página 355, prueba del Teorema 19, ecuación en la penúltima línea.

$T_j = c_j I$

Debe ser $T_j = c_j I_j$ para ser coherente con el uso anterior.

Capítulo 10

  1. Página 360, ejemplo 1.

Dejemos que $V$ sea un espacio vectorial sobre el campo $F$ y que $L_1$ y $L_2$ sean funciones lineales sobre $V$ .

Deberían ser funcionales lineales.

  1. Página 360, ejemplo 2, segunda línea de la segunda ecuación mostrada.

$= \operatorname{tr}(cXtAY) + \operatorname{tr}(Z^tAY)$

Debe ser $= \operatorname{tr}(cX^tAY) + \operatorname{tr}(Z^tAY)$ .

  1. Página 366, Ejercicio 2.

2. Dejemos que $f$ sea la forma bilineal en $R^2$ definido por $$f((x_1, y_1), (x_2, y_2)) = x_1 y_1 + x_2 y_2.$$

Debe ser $f((x_1, x_2), (y_1, y_2)) = x_1 y_1 + x_2 y_2$ .

  1. Página 367, Ejercicio 14.

Dejemos que $f$ sea una forma bilineal en un espacio vectorial de dimensión finita $V$ . Demostrar que $f$ puede expresarse como un producto de dos funcionales lineales si y sólo si $f$ tiene el rango 1.

Hay dos correcciones razonables: (1) Dejemos que $f$ sea una forma bilineal no nula o (2) Demuestre que $f$ puede expresarse como un producto de dos funcionales lineales no nulas. . . .

  1. Página 374, Ejercicio 11.

Dejemos que $V$ sea un espacio vectorial de dimensión finita y $f$ una forma bilineal simétrica no degenerada en $V$ . . . . ¿Cuánto de lo anterior es válido sin la suposición de que $T$ es no degenerado?

Hay un error en la última frase porque los autores no aplican no degenerado a los operadores. La enmienda más sencilla es terminar la frase con $f$ es no degenerado? Un cambio que es más instructivo es que $f$ ¿es simétrico?

  1. Página 376, segundo párrafo completo, última frase.

De (9-7). . .

Debería ser (10-7).

Anexo

  1. Página 395, punto (3).

. . . , entonces $\alpha - \gamma = (\alpha - \beta) + \beta - \gamma)$ está en W .

Debe ser $\alpha - \gamma = (\alpha - \beta) + (\beta - \gamma)$ está en W .

  1. Página 396, primer punto.

(a) Si $\alpha \equiv \alpha', \mod W$ y $\beta \equiv \beta', \mod W$ entonces $$\alpha + \alpha' \to \beta + \beta', \mod W.$$

Debe ser (1) Si $\alpha \equiv \alpha', \mod W$ y $\beta \equiv \beta', \mod W$ entonces $$\alpha + \alpha' \equiv \beta + \beta', \mod W.$$

  1. Página 396, prueba del punto (1).

(1) Si $\alpha - \alpha'$ está en $W$ y $\beta - \beta'$ está en $W$ Entonces, como $(\alpha + \beta) - (\alpha' - \beta') = (\alpha - \alpha') + (\beta - \beta')$ vemos que $\alpha + \beta$ es congruente con $\alpha' - \beta'$ modulo $W$ .

Debe ser (1) Si $\alpha - \alpha'$ está en $W$ y $\beta - \beta'$ está en $W$ Entonces, como $(\alpha + \beta) - (\alpha' + \beta') = (\alpha - \alpha') + (\beta - \beta')$ vemos que $\alpha + \beta$ es congruente con $\alpha' + \beta'$ modulo $W$ .

Índice

Reste uno a todos los números de página superiores a 386.

2voto

MathNoob Puntos 11

Estoy usando la segunda edición.

Ampliaré la errata en cuanto encuentre algunos errores (no mencionados por otras respuestas) en el libro.

Capítulo 8

  1. p. 284, Teorema 4.

    (iii) $\dots$ es cualquier base ortonormal para $W$ entonces el vector

    Debería ser una base ortogonal. La prueba utiliza una base ortogonal como la condición, y la ecuación de abajo es una forma general con respecto a una base base ortogonal en lugar de una base ortonormal.

Capítulo 9

  1. p. 329, antepenúltimo párrafo.

    Si $A$ es un $n \times n$ con entradas complejas y si $A$ satisface (9-9),

    Debería ser (9-8) en lugar de (9-9).

0voto

Eoin Puntos 140

No tengo ni idea de dónde podría encontrar una errata.

Sin embargo estoy leyendo su 2ª edición, encontré que en la página 174 línea 18, 6 será 12. ¿Cómo se encuentra?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X