En la escuela primaria aprendemos a racionalizar denominadores de fracciones cuando es posible. Se nos enseña que $\frac{\sqrt{2}}{2}$ es más simple que $\frac{1}{\sqrt{2}}". Una respuesta en este sitio dice que "hay un sesgo en contra de las raíces en el denominador de una fracción". Pero tales fracciones están bien definidas y no veo nada malo con $\frac{1}{\sqrt{2}}" - de hecho, en mi opinión es más simple que $\frac{\sqrt{2}}{2}$ porque 1 es más simple que 2 (o similarmente, porque el primero puede ser trivialmente reescrito sin una fracción).
Entonces, ¿por qué existe este sesgo en contra de las raíces en el denominador y cuál es su justificación? La única razón que se me ocurre es que el sesgo es un vestigio de una época antes de que los números reales fueran suficientemente entendidos por los matemáticos como para sentirse cómodos dividiendo por irracionales, pero no he podido encontrar una fuente que corrobore o contradiga esta suposición.
45 votos
Para este tiempo tal sesgo está en gran medida restringido al nivel escolar. Además, está restringido a casos con términos muy cortos; si necesito estimar $$ \frac{\sqrt{n+1} - \sqrt n}{2} $$ mi truco más rápido es racionalizar el numerador
11 votos
Ver este hilo en MathEducators.SE. Muchas respuestas y explicaciones ahí. La discusión es pedagógica en lugar de matemática, pero de todas formas. Un resumen rápido: comparar respuestas es más fácil en forma estándar, antes de que existieran computadoras yada yada, es bueno aprender a hacer esto para cuando realmente importe.
4 votos
@JyrkiLahtonen, Creo que son tres yadda's. Hmmm; normalmente tres, pero varía youtube.com/watch?v=O6kRqnfsBEc
6 votos
Al menos es un número surdo de yaddas, ¡en lugar de un número absurdo!
8 votos
Esto es parte de los problemas de relativismo moral y disonancia moral. ¡Intentamos racionalizarlo todo! :-)