¡Un problema genial! Como muestra la derivación de Xi'an, está relacionado con la minimización del Divergencia KL de Q a P. Cliff también proporciona un contexto importante.
El problema puede resolverse de forma trivial utilizando un software de optimización, pero no veo la forma de escribir una fórmula de forma cerrada para la solución general. Si $q_i \geq 0 $ nunca se une, entonces hay una fórmula intuitiva.
Casi seguro que es óptimo $\mathbf{q} \neq \mathbf{p}$ (aunque vea mis gráficos de ejemplo al final, podría estar cerca). Y $\max \mathrm{E}[x]$ no es el mismo problema que $\max \mathrm{E}[\log(x)]$ . Observar $x + y$ no es un objetivo equivalente como $\log(x) + \log(y)$ . No es una transformación monótona. La expectativa es una suma y el logaritmo va dentro de la suma, por lo que no es una transformación monótona de la función objetivo.
Condiciones KKT (es decir, condiciones necesarias y suficientes) para una solución:
Definir $q_0 = 0$ y $q_{n+1} = 0$ . El problema es: \begin {Ecuación} \begin {array}{*2{>{} \displaystyle }r}} \mbox {maximizar (sobre $q_i$ )} & \sum_ {i=1}^n p_i \log \left ( q_{i-1} + q_i + q_{i+1} \right ) \\ \mbox {sujeto a} & q_i \geq 0 \\ & \sum_ {i=1}^n q_i = 1 \end {array} \end {Ecuación}
Lagrangiano: $$ \mathcal{L} = \sum_i p_i \log \left( q_{i-1} + q_i + q_{i+1} \right) + \sum_i \mu_i q_i -\lambda \left( \sum_i q_i - 1\right) $$ Se trata de un problema de optimización convexo en el que La condición de Slater tiene por lo tanto el Condiciones KKT son condiciones necesarias y suficientes para un óptimo. Condición de primer orden: $$ \frac{p_{i-1}}{q_{i-2} + q_{i-1} + q_{i}} + \frac{p_i}{q_{i-1} + q_i + q_{i+1}} + \frac{p_{i+1}}{q_{i} + q_{i+1} + q_{i+2}} = \lambda - \mu_i $$
Flojedad complementaria: $$\mu_i q_i = 0 $$ Y por supuesto $\mu_i \geq 0$ . (Según mis pruebas, parece que $\lambda = 1$ pero no veo inmediatamente por qué). $\mu_i$ y $\lambda$ son multiplicadores de Lagrange.
Solución si $q_i \geq 0$ nunca se vincula.
Entonces considere la solución
$$ p_i = \frac{q_{i-1} + q_i + q_{i+1}}{3} \quad \quad \mu_i = 0 \quad \quad \lambda = 1$$ Introduciendo la condición de primer orden, obtenemos $\frac{1}{3} + \frac{1}{3} + \frac{1}{3} = 1$ . Así que funciona (siempre y cuando $\sum_i q_i = 1$ y $q_i \geq 0$ también se satisfacen).
Cómo escribir el problema con matrices:
Dejemos que $\mathbf{p}$ y $\mathbf{q}$ sean vectores. Sea $A$ sea una matriz diagonal trilateral de unos. Por ejemplo, para $n = 5$
$$A = \left[\begin{array}{ccccc} 1 & 1 & 0 & 0 & 0 \\ 1 & 1 & 1 & 0& 0 \\ 0 & 1 & 1 & 1 & 0 \\0 &0 & 1 & 1&1\\ 0 &0 &0 & 1 & 1 \end{array} \right] $$
El problema se puede escribir con más notación matricial:
\begin {Ecuación} \begin {array}{*2{>{} \displaystyle }r}} \mbox {maximizar (sobre $\mathbf{q}$ )} & \mathbf {p}' \log\left (A \mathbf {q} \right ) \\ \mbox {sujeto a} & q_i \geq 0 \\ & \sum_i q_i = 1 \end {array} \end {Ecuación}
Esto se puede resolver rápidamente de forma numérica, pero no veo la manera de obtener una solución limpia de forma cerrada.
La solución se caracteriza por: $$A\mathbf{y} = \lambda - \mathbf{u} \quad \quad \mathbf{x} = A \mathbf{q} \quad \quad y_i = \frac{p_i}{x_i} $$ pero no veo cómo eso es terriblemente útil más allá de comprobar su software de optimización.
Código para resolverlo usando CVX y MATLAB
A = eye(n) + diag(ones(n-1,1),1) + diag(ones(n-1,1),-1);
cvx_begin
variable q(n)
dual variable u;
dual variable l;
maximize(p'*log(A*q))
subject to:
u: q >= 0;
l: sum(q) <= 1;
cvx_end
Por ejemplo, las entradas:
p = 0.0724 0.0383 0.0968 0.1040 0.1384 0.1657 0.0279 0.0856 0.2614 0.0095
tiene solución:
q = 0.0000 0.1929 0.0000 0.0341 0.3886 0.0000 0.0000 0.2865 0.0979 0.0000
Solución que obtengo (azul) cuando tengo una tonelada de contenedores siguiendo básicamente el pdf normal (rojo): Otro problema más arbitrario:
Muy vagamente, para $p_{i-1} \approx p_i \approx p_{i+1}$ se obtiene $q_i \approx p_i$ pero si $p_i$ se mueve mucho, y se producen algunas cosas complicadas en las que la optimización trata de poner la masa en $q_i$ en la vecindad de $p_i$ masa, colocándola estratégicamente entre $p_i$ con masa.
Otro punto conceptual es que la incertidumbre en su previsión suavizará efectivamente su estimación de $p$ y una mayor suavidad $p$ tendrá una solución $q$ que está más cerca de $p$ . (Creo que es correcto.)
0 votos
¿Podría proporcionar un enlace? Por razones probablemente muy obvias, estoy particularmente interesado...
2 votos
No veo por qué la solución de $\max_q \mathbb{E}[q(X-1)+q(X)+q(X+1)]$ debe ser la misma que la solución de $\max_q \mathbb{E}[\log\{q(X-1)+q(X)+q(X+1)\}]$
0 votos
He añadido un enlace a un comunicado de prensa. Lamentablemente, el enlace dentro del artículo, que es al sitio real del concurso, está actualmente caído. Espero que vuelva a estar disponible pronto.
0 votos
La idea es que queremos evaluar su pmf para un objetivo, por ejemplo, la semana pico, pero como los datos mismos son ruidosos, el objetivo es incierto.
0 votos
La idea es que queremos evaluar su pmf (o probabilidad marginal) para un objetivo, por ejemplo, la semana pico. Dado que los datos son ruidosos, el objetivo es incierto y, por lo tanto, el criterio permite que se desvíe una unidad, por ejemplo, una semana, en cualquier dirección. El criterio calcula el logaritmo de la suma de los tres valores de pmf. Pero entonces, me parece que es mejor no informar de su verdadero pmf $p$ pero, en cambio, informan $q$ . Así que sí, creo que el objetivo es maximizar la expectativa de la pregunta.
0 votos
@jaradniemi: perdón por la confusión, ahora estoy en un ordenador de verdad y no en mi teléfono, ¡veo que efectivamente es un problema de maximización! Si el sistema de ecuaciones $q_{i-1}+q_i+q_{i+1}=p_i$ permite una solución dentro del simplex, ¡no puede ser mejor! Por otra parte, algunos de los q_i son necesariamente cero, pero no creo que haya una solución de forma cercana.
1 votos
@jaradniemi: ah, entonces es exactamente el caso de que el problema de los datos censurados por intervalo, y la solución a su problema es el NPMLE censurado por intervalo.