En su segunda pregunta, creo que quiere decir "multiplicación de matriz ingenua", no "eliminación gaussiana".
Henry Cohn y otros tenían un lindo papel que relaciona los algoritmos de multiplicación de matrices rápidas con ciertos grupos. No hace mucho para responder a tu pregunta (a menos que quieras ir y probar los resultados conjeturados =), pero es una lectura divertida.
Además, para respaldar harrison No creo que nadie crea realmente que hay un $O(n^2)$ algoritmo. Un buen número de personas creen que es probable que haya un algoritmo que es $O(n^{2+ \epsilon })$ para cualquier $ \epsilon > 0$ . Un $O(n^2 \log n)$ el algoritmo encajaría en la cuenta.
editar: Se puede obtener una sensación de fondo para un límite inferior en el exponente de Coppersmith-Winograd basado en el hecho de que la gente no lo usa, incluso para n en el orden de 10.000; la multiplicación de la matriz ingenua requiere $2n^3 + O(n^2)$ fracasos, y Coppersmith-Winograd requiere $Cn^{2.376} + O(n^2)$ . Estableciendo las expresiones iguales y resolviendo para $C$ da que los dos algoritmos tendrían igual rendimiento para n = 10.000 (ignorando los patrones de acceso a la memoria, la eficiencia de la implementación y todo tipo de otras cosas) si la constante fuera alrededor de 627. En realidad, es probable que sea mucho mayor.