Un hyperparameter es simplemente un parámetro que afecta, en todo o en parte, de otros parámetros. No directamente a resolver el problema de optimización que se enfrentan, sino optimizar los parámetros que pueden resolver el problema (de ahí el hyper, porque ellos no son parte del problema de optimización, sino que son "complementos"). Por lo que he visto, pero no tengo ninguna referencia, esta relación es unidireccional (un hyperparameter no puede ser influenciado por los parámetros que influyen, por tanto, también la de hyper). Ellos generalmente se introdujo en la regularización o meta-esquemas de optimización.
Por ejemplo, su $\lambda$ parámetro puede libremente impacto $\mu$ $\sigma$ a un ajuste por el costo de regularización (sino $\mu$ $\sigma$ no tienen ninguna influencia en $\lambda$). Por lo tanto, $\lambda$ es un hyperparameter para$\mu$$\sigma$. Si usted tuvo un adicional de $\tau$ parámetros que influyen $\lambda$, sería un hyperparameter para $\lambda$, y un hyperhyperparameter para $\mu$ $\sigma$ (pero nunca he visto esta nomenclatura, pero no me parece mal si yo lo vi).
He encontrado el hyperparameter concepto muy útil para la validación cruzada, porque recuerda usted de la jerarquía de parámetros, mientras que también te recuerdo que si usted todavía está modificando (hiper-)parámetros, que son todavía la validación cruzada y no generalizar por lo que debe permanecer cuidado sobre sus conclusiones (para evitar pensamiento circular).