He aquí una cita de Andrew Gilpin (1993) en la que defiende la tesis de Maurice Kendall $$ over Spearman's $$ por razones teóricas:
[Kendall's $$] approaches a normal distribution more rapidly than $$ como $N$ el tamaño de la muestra, aumenta; y $$ también es más manejable matemáticamente, sobre todo cuando hay empates.
No puedo añadir mucho sobre Goodman-Kruskal $$, other than that it seems to produce ever-so-slightly larger estimates than Kendall's $$ en una muestra de datos de encuestas con la que he estado trabajando últimamente... y, por supuesto, estimaciones notablemente inferiores a las de Spearman $$. However, I also tried calculating a couple partial $$ (Foraita & Sobotka, 2012), que se acercaban más a las estimaciones parciales de la $$ than the partial $$ ... Sin embargo, me llevó bastante tiempo de procesamiento, así que dejaré las pruebas de simulación o las comparaciones matemáticas para otra persona... (que sabría cómo hacerlas...)
En ttnphns implica, no puedes concluir que tu $$ estimates are better than your $$ estimaciones sólo por magnitud, porque sus escalas difieren (aunque los límites no lo hagan). Gilpin cita a Kendall (1962) para describir la relación de $$ to $$ sea aproximadamente 1,5 en la mayor parte de la gama de valores. Se acercan gradualmente a medida que aumentan sus magnitudes, de modo que cuando ambas se acercan a 1 (o -1), la diferencia se vuelve infinitesimal. Gilpin ofrece una gran tabla de valores equivalentes de $$, $ r $, $ r^2$, d y $Z_r$ hasta el tercer dígito para $$ at every increment of .01 across its range, just like you'd expect to see inside the cover of an intro stats textbook. He based those values on Kendall's specific formulas, which are as follows: $$ \begin{aligned} r &= \sin\bigg(\tau\cdot\frac \pi 2 \bigg) \\ \rho &= \frac 6 \pi \bigg(\tau\cdot\arcsin \bigg(\frac{\sin(\tau\cdot\frac \pi 2)} 2 \bigg)\bigg) \end{aligned} $$ (I simplified this formula for $$ de la forma en que Gilpin escribió, que fue en términos de Pearson $r$ .)
Tal vez tendría sentido para convertir su $$ into a $$ y vea cómo el cambio computacional afecta a su estimación del tamaño del efecto. Parece que esa comparación daría alguna indicación de hasta qué punto los problemas que el modelo de Spearman $$ is more sensitive to are present in your data, if at all. More direct methods surely exist for identifying each specific problem individually; my suggestion would produce more of a quick-and-dirty omnibus effect size for those problems. If there's no difference (after correcting for the difference in scale), then one might argue there's no need to look further for problems that only apply to $$ . Si hay una diferencia sustancial, probablemente sea el momento de sacar la lupa para determinar la causa.
No estoy seguro de cómo se suele informar de los tamaños del efecto cuando se utiliza la prueba de Kendall. $$ (to the unfortunately limited extent that people worry about reporting effect sizes in general), but since it seems likely that unfamiliar readers would try to interpret it on the scale of Pearson's $ r$, it sería prudente informar de ambos su $$ statistic and its effect size on the scale of $ r$ utilizando la fórmula de conversión anterior... o al menos señalar la diferencia de escala y agradecer a Gilpin su práctica tabla de conversión.
Referencias
Foraita, R., y Sobotka, F. (2012). Validación de modelos gráficos. Paquete gmvalid, v1.23. Red integral de archivos R. URL: http://cran.r-project.org/web/packages/gmvalid/gmvalid.pdf
Gilpin, A. R. (1993). Table for conversion of Kendall's Tau to Spearman's Rho within the context measures of magnitude of effect for meta-analysis. Medición Educativa y Psicológica, 53 (1), 87-92.
Kendall, M. G. (1962). Métodos de correlación de rangos (3ª ed.). London: Griffin.
3 votos
" Por lo general, la correlación de Spearman es mejor que la de Kendall-Tau para nuestros datos, y me preguntaba qué dice eso sobre los datos en concreto. " ... probablemente nada; Kendall $\tau$ est a menudo más cerca de 0 que la de Spearman $\rho$ cuando las correlaciones no son realmente $0$ o $\pm 1$ - mide la asociación de forma diferente; el hecho de que su magnitud sea normalmente menor no significa que la correlación de Spearman sea "mejor"; simplemente miden cosas diferentes sobre los datos. ¿Qué le lleva a decir que la correlación es "mejor"?
1 votos
Eso era indirectamente lo mismo que mi pregunta, @Glen_b; salvo que yo preguntaba por qué los algoritmos informaban de una correlación mayor y cuál sería la causa. Cambiaré "mejor" por "mayor" para que quede más claro. Tienes razón en que miden cosas diferentes, y que los números no tienen mucho que ver entre sí, pero yo quería saber qué significaban realmente los números, lo que se responde en detalle más abajo.