Empezaré con un ejemplo motivador y sólo después pasaré a la pregunta.
Considere una lista del total de envases de leche que se compraron en 9 días consecutivos en una tienda determinada,
$z_1,\ldots,z_9 = 1,0,0,2,0,1,0,1,3$
Supongamos que tengo un algoritmo que predice $\hat{z}_{10}=2$ . Estoy interesado en evaluar la confianza asociada a esta predicción, sin embargo, a efectos de gestión de las poblaciones, quiero medir la confianza en que el valor predicho es un límite superior del valor real $z\leq\hat{z}$ , en lugar de $z=\hat{z}$ . Esto es así porque lo que busco en última instancia es tener la seguridad de no quedarme sin existencias.
Supongo que una estimación de esta confianza, basada sólo en los ejemplos dados, es $1-p_{\hat{z}_{10}}$ donde $p_{\hat{z}_{10}}$ es la probabilidad de encontrar un valor más extremo que la predicción $\hat{z}_{10}$ en la distribución empírica de las 10 observaciones:
X
X X
X X X
X X X X
-------
0 1 2 3
que sería $1-p_{\hat{z}_{10}}=0.9$ .
Asumiendo que el razonamiento anterior es correcto (suficiente :), ahora a la pregunta:
Recientemente he leído "A Tutorial on Conformal Prediction" de Shafer y Vovk, y tengo curiosidad por saber cómo enmarcar este problema en el marco de la predicción conforme. Me parece que el documento se centra exclusivamente en el caso de la estimación de la confianza para $z=\hat{z}$ La cuestión es cómo adaptarlo al caso asimétrico.
Si estuviéramos interesados en el $z=\hat{z}$ caso, una medida de disconformidad natural sería $A(B,\hat{z})=|\bar{z}_B-\hat{z}|$ , donde $\bar{z}_B$ es la media de $B$ (sección 4.1 del documento). Esto definiría las siguientes regiones de predicción (del algoritmo de la sección 4.2):
$\Gamma^{0\leq\varepsilon<0.5}=\{0,1,2,3\}$
$\Gamma^{0.5\leq\varepsilon<1}=\{1,2\}$
$\Gamma^{1}=\{\}$
dado que,
$\alpha_0=A(\{1,2,3\},0)=\alpha_3=A(\{0,1,2\},3)=2$
$\alpha_1=A(\{0,2,3\},1)=\alpha_2=A(\{0,1,3\},2)=2/3$
$p_0=p_3=0.5$
$p_1=p_2=1$
Parece erróneo transportar este razonamiento para el caso asimétrico, ya que considera ambas direcciones (por ejemplo, 0) como "más extremas". En particular, significaría que tenemos un 0,5 de confianza en el $z\leq\bar{z}_{10}$ predicción, muy inferior al 0,9 que se dio anteriormente a partir de la distribución empírica.
Me parece que para resolver este problema hay que elegir una medida de disconformidad $A(B,\bar{z})$ que es monótona con respecto a $\bar{z}$ por ejemplo, $A(B,\bar{z})=\bar{z}$ . Eso haría que "más extremo" fuera asimétrico, lo que daría lugar a las siguientes regiones de predicción para el ejemplo anterior:
$\Gamma^{0\leq\varepsilon<0.1}=\{0,1,2,3\}$
$\Gamma^{0.1\leq\varepsilon<0.3}=\{0,1,2\}$
$\Gamma^{0.3\leq\varepsilon<0.6}=\{0,1\}$
$\Gamma^{0.6\leq\varepsilon<1}=\{0\}$
$\Gamma^{1}=\{\}$
dado que,
$\alpha_i=A(B,i)=i$
$p_0=1$
$p_1=0.6$
$p_2=0.3$
$p_3=0.1$
Esto significa que podemos tener una confianza de al menos 0,7 en el $z\leq\bar{z}_{10}$ predicción. En particular, sigue sin coincidir con el 0,9 de confianza obtenido a partir de la distribución empírica. Me pregunto si estoy en el camino correcto...
Gracias.
Marco