25 votos

Calibración de un clasificador boosted multiclase

He leído el artículo de Alexandru Niculescu-Mizil y Rich Caruana " Obtención de probabilidades calibradas a partir de Boosting "y el debate en ce hilo. Sin embargo, todavía estoy teniendo problemas para entender y aplicar logística o Escala de Platt para calibrar la salida de mi clasificador boosting multiclase (gentle-boost con muñones de decisión).

Estoy algo familiarizado con los modelos lineales generalizados, y creo que entiendo cómo funcionan los métodos de calibración logística y de Platt en el caso binario, pero no estoy seguro de saber cómo extender el método descrito en el artículo al caso multiclase.

El clasificador que utilizo produce los siguientes resultados:

  • $f_{ij}$ = Número de votos que el clasificador emite para la clase $j$ para la muestra $i$ que se está clasificando
  • $y_i$ = Clase estimada

En este punto tengo las siguientes preguntas:

Q1: ¿Tengo que utilizar un logit multinomial para estimar las probabilidades? o ¿puedo seguir haciéndolo con una regresión logística (por ejemplo, en un 1 contra todos moda)?

Q2: ¿Cómo debo definir las variables objetivo intermedias (por ejemplo, como en el escalado de Platt) para el caso multiclase?

Q3: Entiendo que puede ser mucho pedir, pero ¿alguien estaría dispuesto a esbozar el pseudocódigo de este problema? (en un plano más práctico, me interesa una solución en Matlab).

12voto

Psycho Bob Puntos 661

Este es un tema de interés práctico para mí también, así que investigué un poco. He aquí dos artículos de un autor que suele figurar como referencia en estos asuntos.

  1. Transformación de las puntuaciones del clasificador en probabilidad multiclase exacta multiclase
  2. Reducir la multiclase a binario mediante el acoplamiento de probabilidades estimaciones

La esencia de la técnica que se defiende aquí es reducir el problema multiclase a uno binario (por ejemplo, uno frente al resto, es decir, uno frente a todos), utilizar una técnica como Platt (preferiblemente utilizando un conjunto de pruebas) para calibrar las puntuaciones/probabilidades binarias y, a continuación, combinarlas utilizando una técnica como la que se expone en los artículos (uno de ellos es una ampliación del proceso de "acoplamiento" de Hastie et al). En el primer enlace, los mejores resultados se obtuvieron simplemente normalizando las probabilidades binarias para que sumen 1.

Me encantaría escuchar otros consejos y si alguna de estas técnicas ha sido implementada en R.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X