Primero definamos los siguientes objetos: En un modelo estadístico $M$ que se utiliza para modelar $Y$ como una función de $X$, hay $p$ parámetros denotados por el vector $\theta$. Estos parámetros pueden variar dentro del espacio de parámetros $\Theta \subset \mathbb{R^p}$. No estamos interesados en la estimación de todos estos parámetros, sino solo en un cierto subconjunto, digamos $q \leq p$ de los parámetros que denotamos como $\theta^0$ y que varían dentro del espacio de parámetros $\Theta^0 \subset \mathbb{R^q}$. En nuestro modelo $M$, las variables $X$ y los parámetros $\theta$ se mapearán de manera que expliquen $Y$. Este mapeo está definido por $M$ y los parámetros.
Dentro de este entorno, la identificabilidad se refiere a la Equivalencia Observacional. En particular, si los parámetros $\theta^0$ son identificables respecto a $M$, entonces se cumplirá que $\nexists \theta^1 \in \Theta^0: \theta^1 \neq \theta^0, M(\theta^0) = M(\theta^1)$. En otras palabras, no existe un vector de parámetros diferente $\theta^1$ que induciría el mismo proceso de generación de datos, dado nuestra especificación del modelo $M. Para hacer estos conceptos más concebibles, doy dos ejemplos.
Ejemplo 1: Define para $\theta = (a,b)$; $X\sim N(\mu, \sigma^2I_{n}); \varepsilon \sim N(0, \sigma_e^2 I_{n})$ el simple modelo estadístico $M$: \begin{align} Y = a+Xb+\varepsilon \end{align> y supongamos que $(a,b) \in \mathbb{R^2}$ (entonces $\Theta = \mathbb{R^2}$). Es claro que ya sea que $\theta^0 = (a,b)$ o $\theta^0 = a$, siempre se cumplirá que $\theta^0$ es identificable: El proceso que genera $Y$ a partir de $X$ tiene una relación $1:1$ con los parámetros $a$ y $b. Fijando $(a,b)$, no será posible encontrar una segunda tupla en $\mathbb{R}$ que describa el mismo Proceso de Generación de Datos.
Ejemplo 2: Define para $\theta = (a,b,c)$; $X\sim N(\mu, \sigma^2I_{n}); \varepsilon \sim N(0, \sigma_e^2 I_{n})$ el modelo estadístico más complicado $M'$: \begin{align> Y = a+X(\frac{b}{c})+\varepsilon \end{align> y supongamos que $(a,b) \in \mathbb{R^2}$ y $c \in \mathbb{R}\setminus\{0\}$ (entonces $\Theta = \mathbb{R^3}\setminus\{(l,m,0)| (l,m) \in \mathbb{R^2}\}$). Mientras que para $\theta^0$, este sería un modelo estadístico identificable, esto no es cierto si se incluye otro parámetro (es decir, $b$ o $c). ¿Por qué? Porque para cualquier par de $(b,c)$, existen infinitamente muchos otros pares en el conjunto $B:=\{(x,y)|(x/y) = (b/c), (x,y)\in\mathbb{R}^2\}$. La solución obvia al problema en este caso sería introducir un nuevo parámetro $d = b/c$ reemplazando la fracción para identificar el modelo. Sin embargo, uno podría estar interesado en $b$ y $c$ como parámetros separados por razones teóricas - los parámetros podrían corresponder a parámetros de interés en un sentido teórico (económico). (Por ejemplo, $b$ podría ser 'propensión a consumir' y $c$ podría ser 'confianza', y es posible que desees estimar estas dos cantidades a partir de tu modelo de regresión. Lamentablemente, esto no sería posible.)