17 votos

¿Por qué un sistema de ecuaciones lineales puede ser representado como una combinación lineal de vectores?

Estaba viendo la primera clase de Álgebra Lineal de Gilbert Strang, y lo primero que hace es relacionar la visión estándar de un sistema de ecuaciones lineales como líneas -en $\mathbb{R}^2$ por supuesto- (lo que él llama la imagen por filas) con la noción de tomar una combinación lineal de los vectores dados por las columnas de la matriz (la imagen por columnas).

Ahora bien, puedo ver que funciona en la práctica para llegar a la misma solución, pero no entiendo intuitivamente por qué es así. A priori, parecen cosas muy diferentes, y es misterioso que estas dos visiones de alguna manera se correspondan entre sí.

¿Alguien podría arrojar algo de luz sobre esto? ¡Lo agradecería mucho!

12voto

Alya Puntos 2106

Si te estás preguntando por qué el sistema lineal $$ 2x-y=1,\\x+y=5\tag{1} $$ y la llamada forma de columna (por Strang) $$ x\begin{bmatrix} 2\\1 \end{bmatrix} +y\begin{bmatrix} -1\\1 \end{bmatrix}= \begin{bmatrix} 1\\5 \end{bmatrix}\tag{2} $$

son lo mismo, entonces la respuesta corta sería

es por "definición". Aprenderás la "definición" más tarde para ver exactamente qué significa (2), lo que te dirá por qué (1) y (2) son la misma cosa. Aquí hay una lista de lo que podrías querer prestar atención en clases posteriores:

  • ¿Qué es un vector $[2,1]^T?$
  • ¿Qué significa multiplicar un número real $x$ al vector $[2,1]^T$?
  • ¿Qué significa sumar dos vectores juntos?
  • ¿Cuándo dos vectores son iguales?

Aquí está la explicación de Strang en su libro:

enter image description here enter image description here enter image description here enter image description here


0 votos

Espera, tengo curiosidad por saber cuál es la definición de lo que estás hablando. ¿Está relacionado con la respuesta de Eric a continuación sobre la adición de vectores y la multiplicación por escalares? (Es decir, las propiedades de una transformación lineal si no me equivoco).

0 votos

Igual aquí, ¿podrías señalar esa definición?

0 votos

La "definición" a la que me refiero es aquella para las "adiciones" y "multiplicaciones de escala" de vectores en $\mathbb{R}^2$. Por ejemplo, $(a,b)^T+(x,y)^T$ está definido como el vector $(a+x, b+y)^T.

7voto

erfink Puntos 737

Tienes derecho a tener curiosidad acerca de por qué estos aparentemente dispares, las cosas pueden ser vistos como la misma solución---este es un lugar profundo cuestionamiento que se sustenta el campo del álgebra lineal. Para mí, la idea clave es que estamos pidiendo para ambas ecuaciones a ser cumplidos en el mismo tiempo. No estamos buscando en este como las ecuaciones 1 y 2 para las líneas, estamos buscando esto como el sistema de ecuaciones y cuál es la solución a este sistema es.

Me parece útil para dividir lo vamos a pasar de una representación a otra en muy pedante y de manera lenta, a ver ¿qué idea podemos obtener en el proceso. En primer lugar, tenga en cuenta que dos vectores $\vec{v}= \begin{bmatrix} v_1 \\ v_2 \end{bmatrix}$ $\vec{w} = \begin{bmatrix} w_1 \\ w_2 \end{bmatrix}$ son iguales si y sólo si los componentes son iguales, es decir,$v_1 = w_1$$v_2 = w_2$. Ya que queremos que el sistema de ecuaciones a ser satisfechas por la satisfacción de cada individuo de la ecuación, utilizando el vector de igualdades es una forma natural de construir: $$\begin{bmatrix} 2x -y \\ x+y \end{bmatrix}=\begin{bmatrix} 1 \\ 5\end{bmatrix}.$$ Nota diciendo que estos dos vectores son iguales es exactamente la misma declaración como hacer para que el sistema de ecuaciones para estar satisfechos: estos dos vectores son iguales si y sólo si son iguales en la primera componente y la igualdad en el segundo componente. A partir de aquí, podemos utilizar el vector suma a romper nuestra expresión: $$\begin{bmatrix} 2x \\ x \end{bmatrix} + \begin{bmatrix} -y \\ y \end{bmatrix} = \begin{bmatrix}1 \\5 \end{bmatrix}$$ y, a continuación, utilizar la multiplicación escalar a escribir $$x\begin{bmatrix} 2 \\ 1 \end{bmatrix} + y\begin{bmatrix} -1 \\ 1 \end{bmatrix} = \begin{bmatrix}1 \\5 \end{bmatrix}.$$

Matemáticamente, todos estos son sólo diferentes maneras de expresar el mismo conjunto de igualdades-usted debe convencerse de que una solución de $x$ $y$ a que el sistema de ecuaciones es también una solución a nuestro vector problema. Sin embargo, ponen el foco en distintos aspectos. Si la consideramos como un sistema de ecuaciones, tenemos naturalmente, podría preguntar qué conjunto de puntos que satisfacen la primera ecuación de (una línea) y el conjunto de puntos que satisface la segunda ecuación de (otra línea) y, a continuación, pregunte donde ambas ecuaciones están satisfechos (la intersección de las dos líneas). Considerando el problema como una ecuación vectorial, la atención se centra ahora en los dos vectores $\begin{bmatrix} 2 \\ 1 \end{bmatrix}$$\begin{bmatrix} -1 \\ 1 \end{bmatrix}$. Tomando combinaciones lineales de ellos me da dos direcciones diferentes que puedo cabeza y me pregunta cómo de lejos para ir en cada dirección con el fin de acabar en $\begin{bmatrix} 1 \\ 5 \end{bmatrix}$. Me imagino que esto es casi como jugar con un Etch-a-Sketch: hay dos botones etiquetados $x$ $y$ que mueve el lápiz en diferentes direcciones. A diferencia de una normal Etch-a-Sketch, sin embargo, estos mandos no se mueve en línea recta horizontal y verticalmente a tasas similares. En su lugar, se mueve el lápiz en funky las direcciones a diferentes velocidades y estamos con la tarea de convertir la $x$ $y$ perillas juuuuusssstt a la derecha así que terminamos en una ubicación especificada. Mismo problema, enfoque diferente.

A priori, no hay una razón para preferir una sobre la otra, son simplemente diferentes. Al igual que cómo puedo escribir una línea en $y = mx+b$ o $(y-y_0) = m (x-x_0)$, expresan la misma cosa en diferentes formas. Ninguno de los dos es necesariamente mejor o peor, simplemente son diferentes y ponen el énfasis en diferentes aspectos. A medida que nos movemos más profundo en el agujero del conejo de álgebra lineal, hay un par de razones por las que podríamos preferir el vector de versión:

  • En el avión, es bastante fácil de visualizar cómo líneas se cruzan o no se cruzan: pueden tener diferentes pendientes y que se cortan en un único punto, que puede ser paralelo y nunca se cruzan, o podría ser paralelo y en realidad la misma recta (infinitamente muchas intersecciones / soluciones). En el vector de la tierra, estos casos corresponden a nuestros vectores asociados con $x$ $y$ apuntando en distintas direcciones (dando una solución única), nuestros vectores que apuntan en la misma dirección, con el RHS apuntando en algún otro lugar (no hay solución), o ambos vectores se dirigen directamente a los vectores en el lado derecho. No es demasiado malo....
  • Ahora vamos a pasar de una dimensión a 3D ($\mathbb{R}^3$). Puede visualizar todas las maneras para que los tres planos se intersecan (o no) en tres dimensiones? Es posible extraer de todos ellos, pero hay muchas más posibilidades. ¿Sin embargo, las dimensiones superiores? 4 hyperplanes en $\mathbb{R}^4$? 10,000 hyperplanes en $\mathbb{R}^{10,000}$?
  • En comparación, el uso de combinaciones lineales de los vectores (la columna de la imagen) es mucho más fácil para contextualizar en una dimensión superior. Hacer los 10.000 perillas en su hyper-Etch-a-Sketch permitir que una manera de mover la aguja en el punto deseado, o va a llegar nunca a la ubicación correcta, no importa cómo furiosamente usted manivela de ellos? Son cualquiera de los botones redundantes, dando múltiples soluciones?
  • Mirando hacia adelante a donde usted estará encabezada con el álgebra lineal, podemos reescribir la ecuación vectorial $$x\begin{bmatrix} 2 \\ 1 \end{bmatrix} + y\begin{bmatrix} -1 \\ 1 \end{bmatrix} = \begin{bmatrix}1 \\5 \end{bmatrix}$$ como la matriz/ecuación vectorial $$A \vec{x} = \begin{bmatrix} 2 & 1 \\ -1 & 1 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 1 \\ 5 \end{bmatrix} = \vec{b}.$$ Ahora, nuestra atención se ha desplazado a la matriz $A$, destacando la importancia de los coeficientes en nuestro sistema original de ecuaciones. Escrito el sistema de esta manera también trae a nuestra atención en la función asociada que las entradas de un vector $\vec{x}$ y escupe un nuevo vector $\vec{y} = A \vec{x}$ (matemáticamente, esto podría ser clasificadas como $\vec{x} \mapsto A \vec{x}$ ). Con una función regular de una variable, podemos hacer preguntas como "¿qué valores de $x$ solucionar $f(x) = c$?" o "¿cuál es el rango de $f$?". Podemos formular preguntas similares acerca de nuestra nueva función de $\vec{x} \mapsto A \vec{x}$: existe un vector $\vec{x}$ tal que $A \vec{x} = \vec{b}$? Es esta solución es única? ¿Cuáles son todos los posibles vectores puedo salir, es decir, ¿cuál es el rango de la función $\vec{x} \mapsto A \vec{x}$?

De nuevo, ni la representación es "correcto" o "mejor", son simplemente diferentes y puede ser más o menos útiles dependiendo del contexto. Esto es realmente un muy útiles en la lente a través del cual la mayoría de álgebra lineal se pueden ver (y mi favorito personal aspecto de la asignatura): muchas declaraciones significa fundamentalmente la misma cosa, son simplemente diferentes puntos de vista. Por ejemplo, el final del Capítulo Dos en Strang, usted puede construir la siguiente cadena de "si y sólo si" instrucciones para una matriz cuadrada $A_{n \times n}$:

A es invertible $\iff$ $A^{-1}$ existe $\iff$ las columnas de a $A$ son linealmente independientes $\iff$ $A$ ha $n$ pivotes $\iff$ el determinante de a $A$ es distinto de cero ($\det(A) \neq 0$) $\iff$ la ecuación de $A \vec{x} = \vec{0}$ tiene una única solución

Sin centrarse en lo que cada una de estas declaraciones decir, quiero que usted piense acerca de la estructura. Se dice que todas y cada una de estas declaraciones es intercambiable con cualquier otra -, o bien consigue todas o ninguna de estas afirmaciones es cierto. Esto es igual que el de "fila de la imagen" frente a la "columna de la imagen":

$(x,y)$ resuelve el sistema de ecuaciones $\iff$ $x \vec{v} + y\vec{w} = \vec{b}$ $\iff$ $A \vec{x} = \vec{b}$

Podemos llegar a una solución a todos ellos, o ninguno de ellos. Las diferentes declaraciones que ponen de relieve diferentes aspectos de nuestra solución (intersección de las líneas vs combinaciones lineales vs encontrar la entrada correcta(s) de una función), pero es todavía exactamente la misma solución. En realidad es un bastante útil (aunque difícil) el ejercicio de dar un paso atrás y pensar en lo que realmente está sucediendo en cada uno de estos contextos como a aprender los diferentes algoritmos y teoremas durante todo el curso.

1 votos

¡Wow, gracias por una explicación tan clara! Ahora puedo ver de dónde viene la llamada "imagen de columna". Lo único con lo que aún no me siento cómodo es con la idea de multiplicar un vector fila por una matriz (en ese orden). Es evidente que el algoritmo de multiplicación sigue naturalmente desde la imagen de columna, pero no es tan obvio por qué no funciona de la misma manera cuando cambias el orden, o en otras palabras, por qué no podemos definir esta operación como conmutativa. De todas formas, ¡ya me has ayudado mucho! ¡Y por cierto, realmente disfruté la analogía con el Etch-A-Sketch! :)

0 votos

¡Gracias por los comentarios! Incluso uso la analogía del Etch-A-Sketch al enseñar álgebra lineal. ¡Solo necesito que mis estudiantes de ingeniería se pongan ocupados y me hagan uno que funcione en $\mathbb{R}^n$ para $n>3$ =)

0 votos

En cuanto al producto de un vector fila por una matriz, en realidad cae en un tipo de analogía similar. Si sabemos cómo multiplicar una matriz por un vector columna, entonces un vector fila por una matriz es simplemente la operación de transposición: $(A\vec{x})^T = \vec{x}^T A^T$. Lo mismo, mismo resultado. La diferencia está en si queremos representar los vectores como columnas $\begin{bmatrix} 1 \\ 2 \end{bmatrix}$ o como filas $\begin{bmatrix} 1 & 2 \end{bmatrix}$. De nuevo, no hay una respuesta "correcta", solo diferentes niveles de utilidad dependiendo del contexto.

3voto

Emilio Novati Puntos 15832

Pista:

escribe $$ \begin{cases} ax+by=h\\ cx+dy=k \end{cases} $$ como: $$ x\begin{bmatrix} a\\c \end{bmatrix} +y\begin{bmatrix} b\\d \end{bmatrix}= \begin{bmatrix} h\\k \end{bmatrix} $$

esto es una combinación lineal de los vectores columna. Y sí, esto es algo diferente con respecto a la intersección de dos líneas rectas.

0 votos

Sé. Pero ¿por qué es el caso? Es como mágico que ambas cosas sean iguales...

0 votos

Es sorprendente, sí. Y también hay otra interpretación como inversión de una transformación lineal.

0 votos

¿Cuál es esa otra interpretación @Emilio? ¿Dónde puedo encontrarla?

2voto

Andrew Puntos 355

Hay un artículo interesante de Berry Mazur llamado: "¿Cuándo dos cosas son iguales?" En el que discute el problema de la igualdad en relación con las mil caras que tienen los objetos matemáticos. ¿Qué cara deberías mostrar primero al enseñar a la gente sobre esto? Leí las otras preguntas y siento que otros que respondieron intentaron contestarte cómo en lugar de por qué y por tus comentarios en sus respuestas, está claro que lo sabías.

Imagina que tu casa está a tu derecha, pero solo puedes caminar hacia adelante. ¿Puedes llegar a tu casa? No. Necesitas caminar hacia la derecha si quieres llegar allí. Encontrarás en mi respuesta que la razón por la que escribir un sistema de ecuaciones como vectores es que puedes caminar hacia más lugares de los que podías antes ¡y con solo algunas ideas!

La cuestión es que cuando tienes el sistema de ecuaciones representado en forma vectorial, ganas ciertos poderes de expresión y la habilidad de decir más$[1]$ cosas sobre ese objeto. Esto es una de las cosas interesantes de las matemáticas, ver objetos matemáticos a través de diferentes representaciones y obtener nuevas ideas basadas en esas nuevas representaciones.

Para el problema que preguntaste, mostraré algunos ejemplos de lo que acabo de decir. Por ejemplo:

$$ax+by=\alpha\\cx+dy=\beta$$

Puedes reescribirlo como:

$$\begin{bmatrix} x &y \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix}=\begin{bmatrix} \alpha & \beta \end{bmatrix}$$

¿Qué revela esto?$[2]$ Una característica interesante. Puedes tratarlo como una ecuación de matrices y encontrar soluciones $x,y$ solo equivale a encontrar la matriz inversa (cuando es invertible) de $\begin{bmatrix}a & c \\ b & d \end{bmatrix}$ y luego multiplicar a la izquierda la ecuación:

$$\begin{bmatrix} x &y \end{bmatrix}\overbrace{\begin{bmatrix} a & c \\ b & d \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix} ^{-1}}^{ I}=\begin{bmatrix} \alpha & \beta \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix} ^{-1}$$

Y luego:

$$\begin{bmatrix} x &y \end{bmatrix}=\begin{bmatrix} \alpha & \beta \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix} ^{-1}$$

La solución es el producto de esas dos matrices (esto es diferente de la eliminación gaussiana). Aquí has ganado una notación abreviada para el sistema de ecuaciones, una nueva forma de encontrar una solución y puedes usar muchas herramientas en teoría de matrices. Ahora, toma como ejemplo el producto punto de dos vectores: $\langle (x,y,z),(a,b,c) \rangle=ax+by+cz$. El producto punto expresa una propiedad geométrica: El producto punto es cero cuando dos vectores son ortogonales. Ahora, ¿qué significa esto para el siguiente sistema de ecuaciones?

$$\langle (x,y,z),(a,b,c) \rangle=0\\\langle (x,y,z),(d,e,f) \rangle=0\\\langle (x,y,z),(g,h,i) \rangle=0$$

Significa - geométricamente - que el vector solución $(x,y,z)$ es ortogonal a cada vector $(a,b,c),(d,e,f),(g,h,i)$ la propiedad se conserva si haces lo siguiente:

$$\langle (x,y,z,1),(a,b,c,-\alpha) \rangle=0\\\langle (x,y,z,1),(d,e,f,-\beta) \rangle=0\\\langle (x,y,z,1),(g,h,i,-\gamma) \rangle=0$$

Expándelo y verás que es un sistema común de $3$ ecuaciones en $3$ variables. ¡Puedes construir la idea muy importante de un producto cruzado con esto, el producto cruzado $a\times b$ te da un vector que es ortogonal con respecto a $a,b$. Con esto, estás mezclando las ideas de un sistema de ecuaciones con nociones geométricas y ahora puedes usar algunos artilugios geométricos allí y de hecho, puedes tratar objetos geométricos como conjuntos de vectores y algunas transformaciones geométricas pueden hacerse con solo multiplicación de matrices!

En cursos de geometría analítica, generalmente ves la idea de convertir formas de secciones cónicas a una ecuación canónica en la que es más fácil decidir si esa forma cuadrática es un círculo, un par de rectas, una elipse, una parábola, etc. Haces esto a través de dos cambios de coordenadas y el cálculo suele ser grande. Ahora, hay una forma ingeniosa de representar estas secciones cónicas en una ecuación matricial y convertirla en la ecuación canónica equivale a algunas operaciones matriciales básicas, una de las cuales implica valores propios y vectores propios. Si solo quieres saber qué sección cónica es sin tener la ecuación canónica (que te proporciona más información), ¡puedes simplemente calcular la rango de las matrices en la ecuación y el rango es solo el orden del subdeterminante no nulo más grande de la matriz! ¡¿Qué tan increíble es eso?! ¡Cualquiera podría hacerme sentir emocionado solo susurrándome eso al oído$[4]$!

Más adelante en tu curso de álgebra lineal, verás que puedes decir algunas cosas sobre transformaciones lineales usando la misma idea de convertir sistemas de ecuaciones lineales en un producto de matrices. Por ejemplo: En un sistema como $\begin{bmatrix} x &y \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix}=\begin{bmatrix} \alpha & \beta \end{bmatrix}$, hay una forma corta de reescribirlo: $xA=b$. Existe algo llamado espacio nulo, que es el conjunto de soluciones para $xA=0$. Si la única solución es $x=[0,0]$, entonces la transformación lineal es inyectiva. Y para saber eso, solo necesitas verificar si $\det A \neq 0$. Algunas transformaciones lineales pueden codificarse como matrices, y para comprobar varias propiedades al respecto, simplemente puedes usar algunos métodos estándar que aprenderás allí. Podría seguir con mi entusiasmo, pero supongo que entendiste el punto. Con solo algunas herramientas computacionales, tienes acceso a una gran cantidad de conceptos matemáticos mezclados en un solo paquete y obtienes ideas reveladoras con eso. Con solo algunas herramientas computacionales, tienes acceso a una gran cantidad de conceptos matemáticos mezclados en un solo paquete.

También, puedes expresar esas ideas en algunos conceptos básicos de álgebra lineal: Combinaciones lineales, base, cambio de base, cambio de coordenadas, etc. Y como verás más adelante, estas son ideas bastante generales que se pueden aplicar al cálculo, álgebra abstracta, etc.

$[1] : $ De lo que no se puede hablar, hay que callar. - Tractatus de Wittgenstein $(7)$.

$[2] : $ Observa que $$\begin{bmatrix} x &y \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix}=\begin{bmatrix} \alpha & \beta \end{bmatrix}$$ está estrechamente relacionado con

$$x\begin{bmatrix} a\\c \end{bmatrix} +y\begin{bmatrix} b\\d \end{bmatrix}= \begin{bmatrix} \alpha \\ \beta \end{bmatrix}$$

Solo piensa en las filas en la matriz como las columnas en la segunda ecuación.

$[3]: $ Ver teoría de matrices elementales de Howard Eves'. p.104: Una clasificación afín de cónicas y conoides según las rangos de las matrices asociadas.

$[4]:$ $♥♥♥♥♥$.

0 votos

Este es un gran post, ¡gracias! Tienes razón en que al tener tantas perspectivas, uno nunca llega a entender algo completamente. Voy a intentar dedicar más tiempo a pensar en ellos, pero por ahora, me gustaría preguntarte sobre la vista de vectores ortogonales. Es un enfoque bastante interesante; el problema es que ese cuarto componente como <1, -alfa> me parece extraño. Quiero decir, tiene sentido algebraicamente por supuesto, pero sigue siendo extraño. Tal vez solo necesito pensar un poco más en estos conceptos. ¡Gracias de todos modos!

0 votos

@Matt24 Sí. Puedes ver una prueba de ello aquí. Lo hice para el plano, Adriano lo extendió con generalidad. Pero entiendo tu sensación de extrañeza. Supongo que Von Neumann tenía razón después de todo: En matemáticas, no entiendes las cosas. Te acostumbras a ellas.

1 votos

@Matt Creo -por ejemplo- que los límites son algo muy extraño. Es como tener un camino recto infinito y realmente poder llegar al final del camino (???). Ser capaz de encontrar volúmenes con integrales es muy muy extraño. Me resulta extraño que algunas personas tomen ideas matemáticas extrañas como naturales u obvias. En cuanto a la ortogonalidad con el componente adicional, deberías preguntarte: ¿Cómo puedes ver que es verdad?

0voto

Arthur Puntos 11

Bueno, dado que estás viendo la primera conferencia, supongo que es posible que no conozcas muchos de los requisitos previos para la respuesta que voy a dar, aún así, te recomiendo que leas esto dentro de un par de meses, cuando puedas entenderlo completamente.

Utilizando la siguiente notación: $$A.X=b$$ donde $A$ es la matriz de coeficientes del sistema, $X$ es el vector desconocido y $b$ es el vector cuyas coordenadas son el lado derecho de cada ecuación lineal.

La vista por columnas es la idea de ver el espacio de solución de un sistema de ecuaciones lineales como el conjunto de vectores cuya imagen a través de la transformación lineal representada por la matriz $A$ es el vector $b$.

La vista por filas es una forma de entender un sistema de ecuaciones lineales a la luz de los funcionales lineales que tienen como dominio el espacio vectorial considerado. Ahora, eventualmente aprenderás que, en el caso de dimensión finita, una transformación lineal puede ser vista como una función cuyas "funciones de coordenadas" son funcionales lineales (es decir, cada coordenada en la imagen se da por un funcional lineal). Así que la vista por filas es una forma de ver la transformación lineal representada por $A$ como un conjunto de "funcionales lineales de coordenadas", observando la misma transformación lineal (y por eso coinciden) en cada coordenada por separado.

1 votos

No puedo entender. También tengo la misma duda desde hace casi dos meses.

0 votos

¿Qué es exactamente una función lineal? Por eso no pude seguir el argumento.

0 votos

Un funcional lineal es una transformación lineal cuyo dominio es un espacio vectorial $V$ sobre un campo $F$ y cuyo codominio es $F$. Lo que es realmente importante para entender la explicación es que si $V$ es de dimensión finita, entonces todo funcional lineal es de la forma $f(x_1,...,x_n)=a_1x_1+...+a_nx_n$, donde los $a_i$ son constantes en $F$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X