La acotación no es el verdadero problema, sólo explica la asimetría de la distribución de muestreo. Básicamente, el enfoque de la transformación está establecido por razones históricas (al igual que la recomendación predominante de transformar logarítmicamente o lo que sea las variables asimétricas para hacerlas más normales para una regresión lineal, sólo que la transformación de Fisher es formalmente correcta para muestras suficientemente grandes). La razón de estas simplificaciones es principalmente el ahorro de potencia de cálculo. Echemos un vistazo más detallado:
En primer lugar, hay que determinar cuál es el problema. Para derivar una prueba estadística para un estadístico de prueba como la correlación, necesito derivar la distribución de muestreo de mi estadístico. Esto se ha hecho para la correlación y resulta que depende en gran medida del valor poblacional de la correlación. Suponiendo que sus variables siguen una distribución normal bivariada, la fórmula completa de la densidad de la distribución muestral de la correlación es
Aquí ves que necesitas la función Gamma y la función hipergeométrica de Gauss para seguir calculando probabilidades (es decir, áreas bajo esta curva). Para derivar una prueba estadística (asintóticamente) exacta, necesitas trabajar con esta cosa para obtener tus valores p o valores críticos. Bueno... imagina al bueno de Fisher a principios del siglo XX, mucho antes de que existiera una calculadora (y mucho menos un ordenador). Esta cosa es simplemente intratable para el uso por defecto. Y básicamente, esta cosa sólo implica que tu distribución se vuelve más y más sesgada cuanto más te acercas a los límites (ver más abajo).
Pues bien, resulta que hay dos propiedades afortunadas de esta cosa. Primero: si la correlación de la población (rho) es cero, esto se simplifica a la conocida distribución t central. Esto es algo que se puede manejar (y casi todo el mundo lo hace en la introducción a la estadística). Así que no hay problema para cualquier prueba contra el valor poblacional cero.
Pero, ¿qué debe hacer Fisher para comprobar cualquier otro valor o para comparar dos correlaciones de muestra? Pues bien, Fisher inventó uno de sus famosos trucos: Transformando sus correlaciones mediante el método de Fisher, se obtienen puntuaciones que siguen aproximadamente una distribución normal con media Fisher-z(r) y varianza 1/(n-3), que se ve así:
Tener una normalidad aproximada es una gran cosa desde una perspectiva computacional, porque usted puede utilizar una prueba Z que se basa en la distribución normal, que es una distribución bien comportada y fácil de manejar (y por lo tanto, la distribución favorita de casi todos los estadísticos ;)). Es mucho más fácil que la distribución exacta anterior, que no es manejable sin un ordenador.
Para concluir, tienes toda la razón en que -a nivel teórico- la transformación de Fisher no es necesaria para realizar la prueba si tienes un ordenador y un largo aliento para teclear esta fórmula en un script que calcule integrales a partir de esta densidad, puedes realizar fácilmente tus pruebas en él. Si eres un estadístico histórico o un estudiante en un examen con sólo una tabla de la distribución normal, la transformación de Fisher es tu camino. Más allá de eso, supongo que es como con muchas tradiciones queridas, si siempre has utilizado la transformación en tus pruebas, simplemente sigue utilizándola.
Espero que esta anécdota histórica le haya servido para despejar sus dudas. Espero haber contado bien la historia, si se me escapa algo, deja un comentario.