Una nota numérica en mi álgebra lineal texto establece lo siguiente: "En general, el avance de la fase de reducción de la fila tarda mucho más que el retroceso de la fase. Un algoritmo para resolver un sistema se mide generalmente en flops (o de operaciones de punto flotante). Un flop es una operación aritmética $(+,-,*,/)$ en los dos reales los números de punto flotante. Para un $n\times(n+1)$ matriz, la reducción a la forma escalonada puede tomar $$ \frac{2}{3}n^3+\frac{1}{2}n^2-\frac{7}{6}n\etiqueta{1} $$ flops (que es aproximadamente el $2n^3/3$ flops al $n$ es moderadamente grande-por ejemplo, $n\geq 30$). En contraste, la reducción adicional a la reducción de la forma escalonada de las necesidades en la mayoría de las $n^2$ flops."
No hay ninguna explicación en absoluto cómo el autor se acercó con la expresión en $(1)$. Es evidente que hay una razón para que la expresión y el $n^2$ mencionó al final de la cita. Puede alguien con conocimientos de álgebra lineal o la arquitectura de la pc, etc., explique por qué estas expresiones son el camino? Parece que el autor apenas sacado de la nada.