Por favor, ayúdenme a resolver el siguiente problema de optimización. Suponga que tiene que elegir una función $U: [0,1]\mapsto [0,1],$ que debe ser no decreciente ( $U'\geq 0$ ) para maximizar la siguiente integral:
\begin {align} L[U] & = \int_0 ^1 \int_y ^1 (x-y) f(x)f(y)(1-G[U(y)-U(x)]) dx dy \nonumber \\ & \quad + \int_0 ^1 \int_0 ^y (y-x) f(x)f(y)G[U(y)-U(x)] dx dy, \end {align}
donde el $f$ es una función de densidad de probabilidad y $G$ es una función de densidad acumulada. Ambas son conocidas, genéricas, sin supuestos particulares. Sólo hay que suponer $[0,1]$ es en su apoyo.
El problema es que $U$ aparece dos veces dentro de la integral, así que no puedo (o no sé cómo) resolver esto con cálculo de variaciones o control óptimo.
¿Alguien sabe cómo resolver esto? ¿O si se puede resolver en absoluto (bajo qué supuestos)? ¿O tal vez una referencia? Por favor, indíqueme la dirección correcta.