Estaba leyendo algunos problemas de geometría, y me he dado cuenta de algo interesante sobre las proyecciones. Digamos que tenemos un plano $\pi_{1}$ y un punto A (a,b,c). Queremos encontrar la distancia más corta entre el plano y el punto, lo cual es sencillo:
Calcula un "vector diferencia" entre un punto arbitrario del plano y el punto A (a,b,c) en cuestión. Entonces, podemos deducir un vector normal al plano $\pi_{1}$ a partir de la ecuación dada del plano. Ahora, calculamos la proyección de este "vector diferencia" sobre el vector normal, lo que nos dará un vector que puede darnos la distancia mínima.
Sin embargo, lo que me emociona es el hecho, ¿no podemos decir que también un múltiplo escalar del vector normal es también normal a este plano? Digamos que tenemos un vector normal $n=(\alpha,\beta ,\omega)$ ¿no podemos elegir un múltiplo escalar muy pequeño de este vector normal? Digamos $n=(0.0001\alpha,0.0001\beta,0.0001\omega)$ y luego calcular la proyección del vector diferencia sobre este pequeño vector normal? Entonces obtendríamos un vector realmente pequeño que no representaría un "vector distancia". ¿Cómo sabemos que el vector normal $n$ ¿es realmente "mayor" a la distancia mínima entre un punto y un plano? También me he encontrado con esto cuando se trata de la distancia mínima entre dos líneas perpendiculares.
Entiendo cómo funciona el proceso, pero quiero estar seguro de cómo podemos asumir que el vector normal es uno adecuado para hacer la proyección.