Estoy tratando de calcular el error estándar de la muestra espectral medida del riesgo, el cual es utilizado como un indicador de riesgo de la cartera. Brevemente, una muestra espectral de la medida del riesgo se define como $q = \sum_i w_i x_{(i)}$ donde $x_{(i)}$ son del orden de la muestra estadística, y $w_i$ es una secuencia monótona no creciente no negativo pesos que se suma a $1$. Me gustaría para calcular el error estándar de la $q$ (preferiblemente no a través de bootstrap). No sé mucho acerca de L-estimadores, pero a mí me parece que $q$ es un tipo de L-estimador (pero con restricciones adicionales impuestas en las pesas $w_i$), por lo que probablemente debería ser fácilmente solucionado el problema.
edit: por @srikant la pregunta, debo señalar que los pesos $w_i$ son elegidos a priori por el usuario, y debe ser considerado como independiente de las muestras $x$.