Dando las siguientes ecuaciones $$ \mu_n = \frac{\kappa_0 \mu_0 + n \overline{x}}{\kappa_0 + n}, \\ \kappa_n = \kappa_0 + n, \\ \alpha_n = \alpha_0 + n/2, \\ \beta_n = \beta_0 + \frac{1}{2} \sum\limits_{i=1}^n (x_i - \overline{x})^2 + \frac{\kappa_0 n (\overline{x} - \mu_0)^2}{2(\kappa_0 + n)}, $$ donde $\overline{x} = \frac{\sum_{i=1}^n x_i }{n}$ es decir, la media de los datos. En realidad, las ecuaciones anteriores son los parámetros de la conjugación normal-gamma posterior (véase la ecuación (85-89) en este documento para más detalles).
Aquí, quiero probar: $$ \mu_{n+m} = \frac{\kappa_n \mu_n + m \overline{x}}{\kappa_n + m}, \\ \kappa_{n+m} = \kappa_n + m, \\ \alpha_{n+m} = \alpha_n + m/2, \\ \beta_{n+m} = \beta_n + \frac{1}{2} \sum\limits_{i=n+1}^{n+m} (x_i - \overline{x})^2 + \frac{\kappa_n m (\overline{x} - \mu_n)^2}{2(\kappa_n + m)}, $$ donde $\overline{x} = \frac{\sum_{i=n+1}^{n+m} \quad x_i}{m}$ es decir, la media de las nuevas observaciones. Las ecuaciones anteriores aparecen en la ecuación (101-104) de este documento en el que el $m$ se fija en 1.
\=============================================================
El siguiente esfuerzo lo he intentado $$ \kappa_{n+m} = \kappa_0 + n + m = \kappa_{n} + m \\ \alpha_{n+m} = \alpha_0 + \frac{n+m}{2} = \alpha_n + \frac{m}{2} \\ \mu_{n+m} = \frac{\kappa_0 \mu_0 + \sum_{i=1}^{n+m} x_i }{\kappa_0 + n+ m} = \frac{\kappa_0 \mu_0 + \sum_{i=1}^n x_i + \sum_{i=n+1}^{n+m} x_i }{\kappa_n + m} = \frac{(\kappa_0 + n)\frac{\kappa_0 \mu_0 + \sum_{i=1}^n x_i }{\kappa_0 + n} + \sum_{i=n+1}^{n+m} x_i }{\kappa_n + m} = \frac{\kappa_n \mu_n + m\overline{x}}{\kappa_n + m} $$ donde $\overline{x} = \frac{\sum_{i=n+1}^{n+m} \quad x_i}{m}$ . Pero no consigo demostrar la última ecuación: $$ \beta_{n+m} = \beta_n + \frac{1}{2} \sum\limits_{i=n+1}^{n+m} (x_i - \overline{x})^2 + \frac{\kappa_n m (\overline{x} - \mu_n)^2}{2(\kappa_n + m)}. $$ Entonces, ¿alguien podría darme alguna sugerencia?