¿Qué método debo utilizar para calcular el error entre una determinada forma perfecta (por ejemplo, círculo, triángulo, rectángulo, etc.) y una forma libre de la forma dibujada por el usuario, que más o menos coincide con la forma perfecta?
El contexto de aplicación es un programa que mide la precisión de los usuarios de mano-dibujo de formas se muestran en una pantalla táctil. Los usuarios intente volver a dibujar la forma que se muestra en la pantalla con el dedo o con un lápiz óptico y porque los usuarios no son perfectos, dibujados forma no se solapan por completo con una determinada. Me gustaría medir la diferencia o el error entre la forma perfecta proporcionada por la aplicación y el imperfecto de la forma dibujada por el usuario.
Gracias por tu ayuda.