57 votos

¿Cuáles son los avances en estadística de los últimos 15 años?

Todavía recuerdo el artículo de Annals of Statistics sobre el Boosting de Friedman-Hastie-Tibshirani, y los comentarios sobre ese mismo tema de otros autores (incluidos Freund y Schapire). En aquella época, el Boosting se consideraba claramente un avance en muchos aspectos: factible desde el punto de vista computacional, un método de conjunto, con un rendimiento excelente y misterioso. Alrededor de la misma época, SVM alcanzó la mayoría de edad, ofreciendo un marco Apoyado en una sólida teoría y con multitud de variantes y aplicaciones.

Eso fue en los maravillosos años 90. En los últimos 15 años, me parece que muchas estadísticas han sido una operación de limpieza y detalle, pero con pocos puntos de vista verdaderamente nuevos.

Así que voy a hacer dos preguntas:

  1. ¿Me he perdido algún documento revolucionario/seminario?
  2. Si no es así, ¿hay nuevos enfoques que cree que tienen el potencial de cambiar el punto de vista de los inferencia estadística?

Reglas:

  1. Una respuesta por puesto;
  2. Se aceptan referencias o enlaces.

P.D.: Tengo un par de candidatos a avances prometedores. Los publicaré más adelante.

11voto

Akira Puntos 1061

Creo que los algoritmos para controlar Tasa de falsos descubrimientos . Me gusta el enfoque del "valor q".

9voto

Grant Puntos 5366

Añadiendo mis propios 5 centavos, creo que el avance más significativo de los últimos 15 años ha sido la detección comprimida. LARS, LASSO y otros muchos algoritmos pertenecen a este ámbito, ya que la detección comprimida explica por qué funcionan y los extiende a otros ámbitos.

9voto

Brettski Puntos 5485

Algo que tiene muy poco que ver con las estadísticas en sí, pero que ha sido masivamente beneficioso: La creciente potencia de los ordenadores, que hace más accesibles los conjuntos de datos más grandes y los análisis estadísticos más complejos, especialmente en los campos aplicados.

8voto

John Richardson Puntos 1197

El algoritmo de Expectativa-Propagación para la inferencia bayesiana, especialmente en la clasificación de Procesos Gaussianos, fue posiblemente un avance significativo, ya que proporciona un método de aproximación analítica eficiente que funciona casi tan bien como los enfoques basados en el muestreo, que son computacionalmente costosos (a diferencia de la aproximación habitual de Laplace). Véase el trabajo de Thomas Minka y otros sobre el Hoja de ruta del PE

7voto

Grand Oxymore Puntos 344

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X