8 votos

¿Cómo evaluar la repetibilidad de los resultados multivariantes y específicos de cada método?

El método "A" describe muestras biológicas utilizando "huellas dactilares" multivariantes que constan de unas 30 variables diferentes. Las distintas variables muestran una distribución típica diferente y muchas de ellas están estrechamente correlacionadas entre sí. Por experiencia previa, se supone que no podemos transformar muchas de las variables a una distribución normal.

El método "B" está diseñado para ser una versión mejorada del método "A" y deseamos comparar la repetibilidad de estos dos métodos. Si se tratara de una sola variable, realizaríamos análisis independientes de varias muestras y utilizaríamos ANOVA para comparar la variabilidad dentro del método con la variabilidad entre métodos. Pero aquí estamos tratando con resultados multivariantes y no deseamos realizar un análisis por variable. ¿Cuáles son los enfoques correctos para esta cuestión?

Resolución

La respuesta de gui11aume responder , proporciona información útil y valiosa. Adaptaré la "aplicación descendente" de gui11aume's responder seguido de 7 análisis unidireccionales como sugerencia por AdamO.

7voto

JMW.APRN Puntos 21

Esto me recuerda a los diagnósticos de cáncer, en los que las antiguas firmas de expresión génica se sustituyen por otras más nuevas, que por supuesto se supone que son mejores. Pero, ¿cómo demostrar que son mejores?

He aquí un par de sugerencias para comparar la repetibilidad de los métodos.

1. Utilice el análisis de co-inercia (CIA).
La CIA debería tener más publicidad, por desgracia no se utiliza mucho (no hay página en Wikipedia, por ejemplo). CIA es un método de dos tablas que funciona según el mismo principio que análisis canónico (CA), que consiste en buscar un par de puntuaciones lineales con la máxima correlación entre dos conjuntos de mediciones multidimensionales. Su ventaja sobre CA es que se puede hacer aunque se tengan más dimensiones que observaciones. Podría medir ambos métodos en las mismas muestras para obtener dos tablas acopladas de 30 columnas y $n$ observaciones. El primer par de componentes principales debería estar fuertemente correlacionado (si los métodos miden realmente lo mismo). Si el método B es mejor, la varianza residual debería ser menor que la varianza residual del método A. Con este enfoque se aborda tanto la concordancia de los métodos como su desacuerdo, que se interpreta como ruido.

2. Utilizar una distancia .
Se puede utilizar la distancia euclidiana en 30 dimensiones entre la prueba y la repetición de la prueba para medir la repetibilidad de un método. Se genera una muestra de esa puntuación para cada método y se pueden comparar las muestras con la prueba de Wilcoxon.

3. Utilice la aplicación posterior.
Es probable que obtenga estas huellas para tomar una decisión o clasificar pacientes o material biológico. Puede contar los acuerdos vs desacuerdos entre pruebas y repeticiones de pruebas para ambos métodos y compararlos con la prueba de Wilcoxon.

El método 3 es el más sencillo, pero también el más realista. Las decisiones suelen ser bastante sencillas, incluso en el caso de entradas de gran dimensión. Y por muy complejo que sea nuestro problema, hay que tener en cuenta que la estadística es la ciencia de la decisión.

Respecto a la pregunta de su comentario.

¿Qué le parece utilizar un método robusto de reducción de la dimensionalidad para reducir los datos multivariantes a una sola dimensión y analizarlos?

La reducción de la dimensionalidad, por muy sólida que sea, llevará asociada una pérdida de varianza. Si existe una forma de transformar una huella dactilar multivariante en una única puntuación que capture casi toda su varianza, entonces lo mejor es hacerlo. Pero entonces, ¿por qué la huella dactilar es multivariante?

Supuse por el contexto de la OP que la huella dactilar es multivariante precisamente porque es difícil reducir más su dimensionalidad sin perder información. En ese caso, su repetibilidad en una única puntuación no tiene por qué ser una buena aproximación a la repetibilidad global, ya que se puede despreciar la mayor parte de la varianza (cerca de 29/30 en el peor de los casos).

3voto

cbeleites Puntos 12461

Asumo por su pregunta y comentario que las 30 variables de salida no puede (fácilmente) o no debe transformarse en una única variante.

Una idea para tratar los datos de $\mathbf{X_A}^{(n \times p_A)} \leftrightarrow \mathbf{X_B}^{(n \times p_B)}$ es que se podría hacer una regresión de $\mathbf{X_A}^{(n \times p_A)} \mapsto \mathbf{X_B}^{(n \times p_B)}$ y viceversa. Conocimientos adicionales (por ejemplo, que variate $i$ en el conjunto A corresponde a la variante $i$ también en el conjunto B) puede ayudar a restringir el modelo cartográfico y/o con la interpretación.

¿Y qué hay del ACP multibloque (o -PLS), que lleva esta idea más lejos? En estos métodos, las dos huellas multivariantes de las mismas muestras (o los mismos individuos) se analizan juntas como variables independientes, con o sin un tercer bloque dependiente.

R. Brereton: "Quimiometría para el reconocimiento de patrones" analiza algunas técnicas en el último capítulo ("Comparación de diferentes patrones") y si busca en Google encontrará varios documentos, también introducciones. Tenga en cuenta que su situación es similar a los problemas en los que, por ejemplo, se analizan conjuntamente mediciones espectroscópicas y genéticas (dos matrices con una correspondencia entre filas, a diferencia del análisis de, por ejemplo, series temporales de espectros en las que se analiza un cubo de datos).

He aquí un artículo sobre el análisis multibloque: Sahar Hassani: Análisis de datos -ómicos: Herramientas de interpretación gráfica y validación en métodos multibloque .

Además, quizá este sea un buen punto de partida en otra dirección: Hoefsloot et.al., Análisis de datos de conjuntos múltiples: ANOVA Simultaneous Component Analysis and Related Methods, en: Comprehensive Chemometrics - Chemical and Biochemical Data Analysis. (No tengo acceso a él, sólo he visto el resumen)

1voto

alexs77 Puntos 36

30 análisis unidireccionales es sin duda una opción y sería un análisis ideal del tipo "tabla 2", en el que se resume de forma lógica un rendimiento global. Puede darse el caso de que el método B produzca los 20 primeros factores con una precisión ligeramente mejorada, mientras que los 10 últimos son mucho más variables. Se plantea el problema de la inferencia utilizando un espacio parcialmente ordenado: ciertamente, si los 30 factores son más precisos en B, entonces B es un método mejor. Pero hay una zona "gris" y con el gran número de factores, está casi garantizado que aparezca en la práctica.

Si el objetivo de esta investigación es aterrizar en un único análisis, es importante considerar el peso de cada resultado y su aplicación final. Si estas 30 variables se utilizan en la clasificación, predicción y / o agrupación de datos observacionales, entonces me gustaría ver la validación de estos resultados y una comparación de A / B en la clasificación (utilizando algo así como tablas de estratificación de riesgo o el sesgo de porcentaje medio), predicción (utilizando el MSE), y la agrupación (utilizando algo así como la validación cruzada). Esta es la forma adecuada de manejar la zona gris en la que no se puede decir que B es mejor analíticamente, pero funciona mucho mejor en la práctica.

1voto

Gulshan varma Puntos 16

Probaré un ANOVA multivariante basado en la permutación ( PERMANOVA ). Un análisis de ordenación (basado en los resultados del análisis de longitud de gradiente) también podría ser útil.

0voto

mat_geek Puntos 1367

Si pudieras asumir la normalidad multivariante (que dijiste que no podías) podrías hacer una prueba T2 de Hotelling de igualdad de vectores medios para ver si puedes afirmar que hay diferencias entre las distribuciones o no. Sin embargo, aunque no puedas hacer eso, puedes comparar teóricamente las distribuciones para ver si difieren mucho. Divide el espacio de 30 dimensiones en cuadrículas rectangulares. Utilízalas como intervalos de 30 dimensiones. Cuenta el número de vectores que caen en cada intervalo y aplica una prueba de ji cuadrado para ver si las distribuciones son iguales. El problema de esta sugerencia es que requiere una selección juiciosa de los intervalos para cubrir los puntos de datos de forma adecuada. Además, la maldición de la dimensionalidad dificulta la identificación de diferencias entre las distribuciones multivariantes sin disponer de un número muy elevado de puntos en cada grupo. Creo que las sugerencias de gui11aume son sensatas. No creo que las otras lo sean. Dado que comparar las distribuciones no es factible en 30 dimensiones con una muestra típica alguna forma de comparación válida de los vectores medios me parecería apropiada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X