Se trata de un experimento bastante difícil de analizar porque como el porcentaje de error en una cantidad $\frac {1}{d_\rm o}$ aumenta el porcentaje de error en la otra cantidad $\frac {1}{d_\rm i}$ disminuye y viceversa, por lo que no se trata sólo de que los puntos sean más precisos en un extremo del gráfico en comparación con el otro.
Piénsalo así.
Supongamos que la distancia focal del objetivo es aproximadamente $10\,\rm cm$ y el error en una medición es $0.5 \, \rm cm$ .
Cuando ${d_\rm o} \approx 20 \,\rm cm$ y ${d_\rm i} \approx 20 \,\rm cm$ sólo sumando los errores se obtiene un error en la distancia focal de aproximadamente $2.5 \%$ mientras que si el objeto está en el infinito la distancia focal medida tiene un error de aproximadamente $5 \%$ .
Para encontrar la distancia focal como una media de muchos valores habría que utilizar una media ponderada, siendo la ponderación $\dfrac{1}{\rm error^2}$ lo que sería bastante laborioso a mano o incluso si se establece una hoja de cálculo para hacer los cálculos.
Dibujar un gráfico con barras de error apropiadas no es necesariamente más preciso, pero en efecto está haciendo la media de sus resultados con menos esfuerzo.
Al mismo tiempo, puedes utilizar tus conocimientos de física para comparar la teoría y el experimento, ya que sabes que la gráfica debe ser simétrica, con los interceptos de los dos ejes iguales $(=\frac 1f)$ .
0 votos
Aha, esto debe ser sobre una lente, no una frecuencia. Siempre es bueno tener el contexto. ¿Y qué haces con esa lente?