Aunque su prueba es básicamente correcta, no la consideraría mi prueba favorita de este hecho, por las siguientes razones:
- Utiliza la multiplicatividad de los determinantes, que es una propiedad mucho menos elemental que la invarianza bajo transposición.
- Sólo funciona para matrices sobre un campo, mientras que la definición del determinante, y la invariabilidad bajo transposición, no requieren más que un anillo conmutativo. Existe un principio general según el cual las identidades de este tipo, si se mantienen sobre campos, deben ser válidas también sobre anillos conmutativos, pero entender ese tipo de argumento requiere un nivel adicional de madurez matemática; en la mayoría de los casos (como éste) es mucho más fácil dar una prueba que sea válida en el entorno más general.
- Es necesario que se distinga el caso no invertible. Si permitiera una matriz triangular (para la que el resultado es obvio) al final del producto de las operaciones elementales, no necesitaría singularizar este caso (y como ventaja, en la mayoría de los casos necesitaría muchas menos operaciones elementales). Véase esta respuesta a una pregunta similar en la que se imponía el uso de operaciones de fila (pero la respuesta no dice a qué tipo de matriz se está reduciendo).
La forma de demostrarlo depende de la definición del determinante que se haya dado. Si se define mediante la fórmula de Leibniz (que en mi opinión es la correcta definición para dar, aunque una diferente motivación debería darse primero), entonces la prueba sólo consiste en mostrar que toda permutación tiene el mismo signo que su inversa, lo cual es bastante elemental (y, por cierto, puede hacerse de forma similar a tu prueba, pero utilizando una descomposición en transposiciones).
Si por el contrario se ha definido el determinante como único n -función alternante lineal en un n espacio vectorial dimensional que toma valor 1 en una base ordenada dada, (lo que sigue requiriendo el uso de Leibniz o un sustituto para demostrar la existencia) entonces la invariancia bajo transposición es más difícil de ver. Aquí hay que pasar al espacio vectorial dual, pero parece necesario utilizar el hecho de que si v_1,\ldots,v_n son vectores y \alpha_1,\ldots,\alpha_n son formas lineales, entonces el determinante \begin{vmatrix}\alpha_1(v_1)&\ldots&\alpha_1(v_n)\\ \vdots&\ddots&\vdots\\\alpha_n(v_1)&\ldots&\alpha_n(v_n)\end{vmatrix} no es sólo n -lineales y alternas en v_1,\ldots,v_n por el hecho de ser fijo \alpha_1,\ldots,\alpha_n (como se desprende de la definición) pero también n -lineales y alternas en \alpha_1,\ldots,\alpha_n (para los fijos v_1,\ldots,v_n ); no veo ningún argumento fácil para ello, aparte de utilizar la fórmula de Leibniz. Una vez establecido esto, es fácil demostrar que un operador lineal f induce el mismo factor escalar en n -formas lineales cuando se aplican a n -de vectores como cuando se aplica (a la derecha) a n -de formas lineales, es decir, su determinante es el mismo que el de su transposición (en esencia, ambos casos corresponden a insertar un f entre cada \alpha_i y v_j en el determinante anterior).
Esto todavía no proporciona un contexto en el que el uso de las operaciones de fila para demostrar este hecho sería una opción natural. No me queda claro en la pregunta si Artin realmente sugiere esto, y si es así, por qué. La única razón que se me ocurre para utilizar tal argumento es cuando alguien ordena no utilizarás la fórmula de Leibniz .