Quiero hacer más explícita la respuesta de @Glen_b, aquí hay una respuesta extra sólo porque no cabría como comentario.
El formalismo, etc., está bien explicado en Los capítulos 11 y 12 del libro de Jaynes . Tomando la distribución uniforme como medida base, la solución general, como ya dijo @Glen_b, es una gaussiana $$ f(x) \propto \mathcal{N}(x | -1/2 \lambda_1/\lambda_2, -1/(2\lambda_2)) $$ Para la variable no limitada, se pueden resolver explícitamente los multiplicadores de Lagrange $\lambda_1$ y $\lambda_2$ en términos de los valores de las restricciones ( $a_1, a_2$ en el artículo de Wikipedia). Con $a_1=\mu, a_2=\mu^2 + \sigma^2$ , se obtiene entonces $\lambda_1=\mu/\sigma^2, \lambda_2=-0.5 \sigma^2$ por lo que la gaussiana estándar $\mathcal{N}(x|\mu, \sigma^2)$ .
Para la variable acotada $x>x_{min}$ Yo (y Mathematica) no puedo resolver para $\lambda_{1,2}$ explícitamente debido al término de la función de error que aparece al calcular la función de partición ( $1/c$ en la wikipedia). Esto significa que el $\mu$ y $\sigma^2$ los parámetros de la gaussiana truncada son no la media y la varianza de la variable continua con la que comenzó. Incluso puede ocurrir que para $x_{min}=0$ el modo de la gaussiana es negativo. Por supuesto, los números vuelven a coincidir cuando se toma $x_{min} \to -\infty$ .
Si tiene valores concretos para $a_1, a_2$ , todavía se puede resolver para $\lambda_{1,2}$ numéricamente y enchufar las soluciones en la ecuación general y ¡ya está! Los valores de $\lambda_{1,2}$ del caso no limitado puede ser un buen punto de partida para el solucionador numérico.
Esta pregunta es un duplicado de https://math.stackexchange.com/questions/598608/what-is-the-maximum-entropy-distribution-for-a-continuous-random-variable-on-0