4 votos

Para la matriz de rotación$A$, encuentre$B = A^4- A^3 + A^2 - A$

Encontrar el valor de $B = A^4- A^3 + A^2 - A$ donde $A$ es la matriz dada por debajo de $$ A= \left [ \begin{matrix} \cos\alpha & \sin \alpha \\ -\sin\alpha & \cos\alpha \end{de la matriz} \right ] $$

En realidad es bastante simple cuando se mire. Encontrar $A$, $A^2$, $A^3$, $A^4$ haciendo algo de la multiplicación de la matriz y, a continuación, sumar y restar siguientes a la pregunta.
Hice todo el trabajo tedioso mencionados anteriormente.

Pero la matriz de $B$ I obtener está llena de basura. Me suponiendo que cualquiera de nosotros debe utilizar algunos trigno mumbo jumbo identidades, o hay algo hermoso que me perdí de la cuestión.
Edit: En la suma de una serie geométrica de ayuda?

2voto

David Quinn Puntos 7591

Algunos consejos ... podría hacer alguna simplificación considerando$$(A+I)B=A^5-A=A(A^4-I)$ $

$R(\theta)$ es la matriz de rotación estándar$\left(\begin{matrix}\cos\theta &-\sin\theta\\ \sin\theta&\cos\theta\end{matrix}\right)$ que gira en un ángulo$\theta$ en sentido antihorario sobre el origen. Tenga en cuenta que $R(\theta)R(\phi)=R(\theta+\phi)$.

Por lo tanto,$A=R(-\alpha)$ representa la rotación en el sentido de las agujas del reloj por el ángulo$\alpha$,$$A+I=\left(\begin{matrix}\cos\alpha+1 &\sin\alpha\\ -\sin\alpha&\cos\alpha+1\end{matrix}\right)=2\cos\frac{\alpha}{2}R(-\frac{\alpha}{2})$ $$$\implies(A+I)^{-1}=\frac{1}{2\cos\frac{\alpha}{2}}R(\frac{\alpha}{2})$ $ Entonces$$B=(A+I)^{-1}A(A^4-I)$ $

1voto

Andrei Puntos 111

Para una matriz de rotación $$ A = \ left [\begin{matrix} \cos\alpha & \sin \alpha \\ -\sin\alpha & \cos\alpha \end {matrix} \ right] $$$A^2$ es solo una rotación de$2\alpha$,$A^3$ es la rotación de$3\alpha$ y así. $$ B = \ left [\begin{matrix} \cos 4\alpha-\cos3\alpha+\cos2\alpha-\cos\alpha & \sin 4\alpha-\sin3\alpha+\sin2\alpha-\sin\alpha \\ -(\sin 4\alpha-\sin3\alpha+\sin2\alpha-\sin\alpha) & \cos 4\alpha-\cos3\alpha+\cos2\alpha-\cos\alpha \end {matrix} \ right] $$

1voto

Chappers Puntos 20774

Por inducción, $$ A^n = A^{n-1}A = \begin{pmatrix} \cos{(n-1)\theta} & \sin{(n-1)\theta} \\ -\sin{(n-1)\theta} & \cos{(n-1)\theta} \end{pmatrix} \begin{pmatrix} \cos{\theta} & \sin{\theta} \\ -\sin{\theta} & \cos{\theta} \end{pmatrix} = \begin{pmatrix} \cos{(n-1)\theta}\cos{\theta} - \sin{\theta}\sin{(n-1)\theta} & \sin{(n-1)\theta}\cos{\theta} + \cos{(n-1)\theta}\sin{\theta} \\ -\sin{(n-1)\theta} & \cos{(n-1)\theta}\cos{\theta} - \sin{\theta}\sin{(n-1)\theta} \end{pmatrix} \\ = \begin{pmatrix} \cos{n\theta} & \sin{n\theta} \\ -\sin{n\theta} & \cos{n\theta} \end{pmatrix}. $$

El prosthaphaeresis fórmulas son $$ \sin{A}+\sin{B} = 2\sin{\tfrac{1}{2}(a+B)}\cos{\tfrac{1}{2}(a-B)} \\ \sin{A}-\sin{B} = 2\cos{\tfrac{1}{2}(a+B)}\sin{\tfrac{1}{2}(a-B)}\\ \cos{A}+\cos{B} = 2\cos{\tfrac{1}{2}(a+B)}\cos{\tfrac{1}{2}(a-B)}\\ \cos{A}-\cos{B} = -2\sin{\tfrac{1}{2}(a+B)}\sin{\tfrac{1}{2}(a-B)}. $$

Así $$ \cos{4\theta}-\cos{3\theta} = -2\sin{\tfrac{7}{2}\theta}\sin{\tfrac{1}{2}\theta}, \\ \cos{2\theta}-\cos{\theta} = -2\sin{\tfrac{3}{2}\theta}\sin{\tfrac{1}{2}\theta}, $$ y la adición de da $$ \cos{4\theta}-\cos{3\theta} + \cos{2\theta}-\cos{\theta} = -2\sin{\tfrac{1}{2}\theta} ( \sin{\tfrac{7}{2}\theta} + \sin{\tfrac{3}{2}\theta} ) \\ = -4\sin{\tfrac{1}{2}\theta}\sin{\tfrac{5}{2}\theta}\cos{\theta}. $$

Del mismo modo, $$ \sin{4\theta}-\sin{3\theta} + \sin{2\theta}-\sin{\theta} = 4\sin{\tfrac{1}{2}\theta}\cos{\tfrac{5}{2}\theta}\cos{\theta}, $$ así $$ B = 4\sin{\tfrac{1}{2}\theta}\cos{\theta} \begin{pmatrix} -\sin{\tfrac{5}{2}\theta} & -\cos{\tfrac{5}{2}\theta} \\ \cos{\tfrac{5}{2}\theta} & -\sin{\tfrac{5}{2}\theta} \end{pmatrix}. $$

1voto

egreg Puntos 64348

Considere la posibilidad de $z=e^{i\alpha}$; a continuación, $$ z^4-z^3+z^2-z=z(z^2+1)(z-1) $$ Por simplicidad, establezca $\alpha=2\beta$, por lo que tenemos $$ e^{2i\beta} e^{4i\beta}+1)(e^{2i\beta}-1)= e^{2i\beta}e^{2i\beta} e^{2i\beta}+e^{-2i\beta})e^{i\beta} e^{i\beta}+e^{-i\beta})= 4e^{5i\beta}\cos2\beta\cos\beta $$ Por lo tanto su matriz $B$ es $$ B=4\cos2\beta\cos\beta \begin{bmatrix} \cos5\beta & \sin5\beta \\ -\sin5\beta & \cos5\beta \end{bmatrix} $$ Por qué funciona? El conjunto de real de las matrices de la forma $$ \begin{bmatrix} a & b \\ -b & a \end{bmatrix} $$ bajo la matriz de la adición y la multiplicación es isomorfo al complejo campo (la matriz de arriba corresponde a la compleja número $a+bi$) y, en este isomorfismo $e^{i\alpha}$ corresponde a la matriz de rotación.

1voto

Alex Lostado Puntos 386

Si desea que el método rápido para desplazarse por todo el camino hacia abajo.

Este método requiere relativamente poco cálculos, pero usted debe saber valores propios, vectores propios y diagonalización de matrices teorema.

En primer lugar, demostrar que $A$ es diagonalizable:

Vamos $$A = [\; \mathbf{a_1} \;\; \mathbf{a_2} \;]$$

Entonces

$$\mathbf{a_1} · \mathbf{a_2} = \text{cos}(\alpha)\text{sin}(\alpha) - \text{sin}(\alpha) \text{cos}(\alpha) = 0$$

Y

$$\Vert \mathbf{a_1} \Vert = \Vert \mathbf{a_2} \Vert = \text{cos}^2(\alpha) + \text{sin}^2(\alpha) = 1$$

Esta es una identidad trigonométrica.

Estas dos condiciones hacen que $A$ diagonalizable, o en otras palabras, existe una invertible $2 \times 2$ matriz $Q$ tal que $Q^{-1} = Q^{T}$ Tal que

$$QAQ^T = D$$

Donde

$D$ es una matriz diagonal con los valores propios de la diagonal.

$Q$ está dado por los vectores propios de a$A$, y el orden de las columnas de $Q$ ($\Rightarrow$ los vectores propios de a $A$) corresponden a los autovalores de la diagonal de a $D$. Entonces, utilizando la ecuación característica de a $A$, podemos encontrar los valores propios:

$$\text{det}(A-\lambda I) = (\text{cos}(\alpha) - \lambda)^2 - (-\text{sin}^2(\alpha)) = \lambda^2 - 2\lambda \text{cos}(\alpha)+\text{cos}^2(\alpha) + \text{sin}^2(\alpha)$$

$$\Rightarrow \lambda = \frac {2\text{cos}(\alpha) \pm \sqrt{4\text{cos}^2(\alpha) - 4\text{cos}^2(\alpha) - 4\text{sin}^2(\alpha)}}{2} = \text{cos}(\alpha) \pm i\;\text{sin}(\alpha)$$

Ahora, para $\lambda = \text{cos}(\alpha) + i\;\text{sin}(\alpha)$:

$$A-\lambda I = \mathbf{0} \Rightarrow \begin{bmatrix} \text{cos}(\alpha) - (\text{cos}(\alpha) \pm i\;\text{sin}(\alpha)) & \text{sin}(\alpha) \\ -\text{sin}(\alpha) & \text{cos}(\alpha) - (\text{cos}(\alpha) \pm i\;\text{sin}(\alpha)) \\ \end{bmatrix} = \begin{bmatrix} \mp i\;\text{sin}(\alpha) & \text{sin}(\alpha) \\ -\text{sin}(\alpha) & \mp i\;\text{sin}(\alpha) \\ \end{bmatrix} = \mathbf{0} $$

El primer caso se obtiene $$\begin{bmatrix} -i\;\text{sin}(\alpha) & \text{sin}(\alpha) \\ -\text{sin}(\alpha) & -i\;\text{sin}(\alpha) \\ \end{bmatrix} = \mathbf{0}$$

A través de la Eliminación Gaussiana (específicamente $iR_2 - R_1$)

$$\begin{bmatrix} -\text{sin}(\alpha) & \text{sin}(\alpha) \\ 0 & 0 \\ \end{bmatrix} = \mathbf{0}$$

Así que el primer autovalor de a $A$ tiene la forma $\mathbf{u} = \begin{bmatrix} u_1 \\ u_2 \\ \end{bmatrix}$

Con la propiedad de que $i\;\text{pecado}(\alpha)u_1 = \text{pecado} u_2 \Rightarrow iu_1 = u_2 \Rightarrow \mathbf{u} = \begin{bmatrix} i \\ 1 \\ \end{bmatrix}$

El segundo caso se obtiene $$\begin{bmatrix} i\;\text{sin}(\alpha) & \text{sin}(\alpha) \\ -\text{sin}(\alpha) & i\;\text{sin}(\alpha) \\ \end{bmatrix} = \mathbf{0}$$

A través de la Eliminación Gaussiana (específicamente $iR_2 + R_1$)

$$\Rightarrow \begin{bmatrix} i\;\text{sin}(\alpha) & \text{sin}(\alpha) \\ 0 & 0 \\ \end{bmatrix} = \mathbf{0} $$

Así que el primer autovalor de a $A$ tiene la forma $\mathbf{u} = \begin{bmatrix} u_1 \\ u_2 \\ \end{bmatrix}$

Con la propiedad de que $-i\;\text{pecado}(\alpha)u_1 = \text{pecado} u_2 \Rightarrow iu_1 = u_2 \Rightarrow \mathbf{u} = \begin{bmatrix} -i \\ 1 \\ \end{bmatrix}$

Por el teorema de diagonalización, ahora sabemos que:

$$ A = QDQ^T = \begin{bmatrix} i & -i \\ 1 & 1 \\ \end{bmatrix} \begin{bmatrix} \text{cos}(\alpha) + i\;\text{sin}(\alpha) & 0 \\ 0 & \text{cos}(\alpha) - i\;\text{sin}(\alpha) \\ \end{bmatrix} \begin{bmatrix} i & 1 \\ -i & 1 \\ \end{bmatrix}$$

Otro teorema establece que $A^n = QD^nQ^T$. Una adecuada prueba requeriría la inducción matemática, pero he aquí una rápida demostración:

$$A^2 = (QDQ^T)(QDQ^T) = QD(Q^TQ)DQ^T$$

Debido a $Q^T = Q^{-1} \Rightarrow Q^TQ = Q^{-1}Q = I$,

$$A^2 = \cdots = QDIDQ^T = QDDQ^T = QD^2Q^T$$

No es difícil ver que esto funciona $\forall n \in \mathbb{N}$, no sólo por $n = 1$$n = 2$.

También sostiene que para una matriz diagonal $D_{n \times n} = \text{diagonal}(d_1, \cdots, d_n) \Rightarrow D^n = \text{diagonal}(d_1^n, \cdots, d_n^n)$

Por lo tanto:

$$A^n = Q \begin{bmatrix} (\text{cos}(\alpha) + i\;\text{sin}(\alpha))^n & 0 \\ 0 & (\text{cos}(\alpha) - i\;\text{sin}(\alpha))^n \\ \end{bmatrix} P^T$$

Así:

$$A^2 = P \begin{bmatrix} (\text{cos}(\alpha) + i\;\text{sin}(\alpha))^2 & 0 \\ 0 & (\text{cos}(\alpha) - i\;\text{sin}(\alpha))^2 \\ \end{bmatrix} P^T = Q \begin{bmatrix} \text{cos}^2(\alpha) + 2i\;\text{cos}(\alpha)\text{sin}(\alpha) - \text{sin}(\alpha) & 0 \\ 0 & \text{cos}^2(\alpha) - 2i\;\text{cos}(\alpha)\text{sin}(\alpha) + \text{sin}(\alpha) \\ \end{bmatrix} P^T$$

$$A^3 = Q \begin{bmatrix} (\text{cos}(\alpha) + i\;\text{sin}(\alpha))^3 & 0 \\ 0 & (\text{cos}(\alpha) - i\;\text{sin}(\alpha))^3 \\ \end{bmatrix} P^T$$

$$A^4 = Q \begin{bmatrix} (\text{cos}(\alpha) + i\;\text{sin}(\alpha))^4 & 0 \\ 0 & (\text{cos}(\alpha) - i\;\text{sin}(\alpha))^4 \\ \end{bmatrix} P^T$$

Simplificar y luego encontrar $B$.

O, alternativamente, tenga en cuenta que

$$B = A^4 - A^3 + A^2 - A = A^4 + A^2 - A^3 - A = A^4 + A^2 - (A^3 + A) = A^2(A^2 + I) - A(A^2 + I) = (A^2 - A)(A + I)$$

Y esto podría haber sido resolver mucho más rápido con, literalmente, dos de la matriz de multiplicaciones (uno para $A^2$ y otro para $(A^2 - A)(A + I)$).

Me di cuenta de que pueden hacer lo que este a mitad de camino a través de mi explicación de que el otro método, y es ya muy larga, así que no voy a borrar.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X