Como mencionó mugen, $k$ representa el número de parámetros estimado . En otras palabras, es el número de cantidades adicionales que hay que conocer para especificar completamente el modelo. En el modelo de regresión lineal simple $$y=ax+b$$ puede estimar $a$ , $b$ o ambos. Cualquier cantidad que no estimes debes fijarla. No se puede "ignorar" un parámetro en el sentido de no conocerlo y no preocuparse por él. El modelo más habitual que no estima ambos parámetros es el siguiente $a$ y $b$ es el modelo sin intercepción, en el que fijamos $b=0$ . Esto tendrá 1 parámetro. Usted podría fijar tan fácilmente $a=2$ o $b=1$ si tienes alguna razón para creer que refleja la realidad. (Buen punto: $\sigma$ también es un parámetro en una regresión lineal simple, pero como está presente en todos los modelos, se puede suprimir sin que afecte a las comparaciones de AIC).
Si su modelo es $$y=af(c,x)+b$$ el número de parámetros depende de si se fija alguno de estos valores, y de la forma de $f$ . Por ejemplo, si queremos estimar $a, b, c$ y saber que $f(c,x)=x^c$ entonces cuando escribimos el modelo tenemos $$y=ax^c+b$$ con tres parámetros desconocidos. Si, sin embargo, $f(c,x)=cx$ entonces tenemos el modelo $$y=acx+b$$ que en realidad sólo tiene dos parámetros: $ac$ y $b$ .
Es fundamental que $f(c,x)$ es un familia de funciones indexadas por $c$ . Si todo lo que sabes es que $f(c,x)$ es continua y depende de $c$ y $x$ entonces no tienes suerte porque hay incontables funciones continuas.