En los últimos años, el nivel de la universidad y promoción de la tenencia de la comisión en mi universidad ha sido cada vez más tratando de aplicar el criterio "objetivo" para evaluar el impacto de la investigación del candidato. De impacto de las revistas factores han sido favorecida métrica, y hemos tratado de argumentar que estos no son una medida fiable, por todo lo bien documentado razones. (AMS declaraciones sobre "la Cultura de La Investigación y Becas en Matemáticas" han sido de gran ayuda, si no totalmente convincente.) Ahora quieren utilizar más métricas individuales, tales como el h-índices y g-índices. Nos gustaría desalentar esto, pero es difícil argumentar de forma convincente a los no-matemáticos acerca de los defectos de tales medidas, y al final del día, están exigiendo ALGUNA medida numérica que se puede utilizar para comparar los candidatos, tanto a nivel interno y a la facultad en instituciones similares.
Así que, me gustaría escuchar cómo otros departamentos de matemáticas han tratado con este tipo de presiones. En particular, ¿cómo se puede articular normas de tal manera como para mantener altas expectativas, pero también para minimizar el daño a los candidatos que podrían estar haciendo bien-respetado la investigación, pero por los motivos que sea este resultados en relativamente pocos papeles o documentos, con relativamente pocas citas? Y si lo hacemos llegar a tener que usar algo como un índice h, ¿hay alguna manera de recoger los datos de los departamentos de matemáticas, así por lo menos podemos decir algo acerca de lo que es un "buen" valor de un índice en particular para los matemáticos?