Si estás dispuesto a asumir que $\sigma(\sigma(X)\cup \mathcal{H})$ es independiente de $\sigma(\mathcal{G})$ y que $X$ es integrable, entonces la afirmación es cierta. Tenemos que demostrar que $$ E[X\mid \sigma(\mathcal{G}\cup\mathcal{H})]=E[X\mid\mathcal{H}], $$ es decir, tenemos que demostrar que $E[X\mid\mathcal{H}]$ puede servir como la expectativa condicional de $X$ dado $\sigma(\mathcal{G}\cup\mathcal{H})$ es decir, demostrar que
- $E[X\mid\mathcal{H}]$ es $\sigma(\mathcal{G}\cup\mathcal{H})$ -medible,
- $E[X\mid\mathcal{H}]$ es integrable,
- para todos $A\in\sigma(\mathcal{G}\cup\mathcal{H})$ : $$\int_A E[X\mid\mathcal{H}]\,\mathrm dP=\int_A X\,\mathrm dP.$$
Las dos primeras son evidentes. Para la tercera, obsérvese que (por linealidad, podemos suponer que $X$ es no negativo) $$ \sigma(\mathcal{G}\cup\mathcal{H})\ni A\mapsto \int_AE[X\mid\mathcal{H}]\,\mathrm dP $$ y $$ \sigma(\mathcal{G}\cup\mathcal{H})\ni A\mapsto \int_A X\,\mathrm dP $$ son dos medidas definidas en $\sigma(\mathcal{G}\cup\mathcal{H})$ con igual masa total siendo $E[X]$ . Por lo tanto, basta con demostrar que las dos medidas son idénticas en algunos $\cap$ -generador estable de $\sigma(\mathcal{G}\cup\mathcal{H})$ . Aquí, utilizamos que $$ \{A\cap B\mid A\in\mathcal{G},\,B\in\mathcal{H}\} $$ es realmente un $\cap$ -generador estable de $\sigma(\mathcal{G}\cup\mathcal{H})$ (¿por qué?) y, por tanto, basta con demostrar que $$ \int_{A\cap B} E[X\mid \mathcal{H}]\,\mathrm dP=\int_{A\cap B} X\,\mathrm dP,\quad A\in\mathcal{G},\,B\in\mathcal{H}. $$ Intenta demostrarlo utilizando el supuesto de independencia. Creo que te quedará claro que, de hecho, necesitamos el supuesto de independencia más fuerte.
Un contraejemplo que demuestra que efectivamente necesitamos la hipótesis más fuerte es el siguiente: Sea $U$ y $V$ sean variables Bernoulli simétricas i.i.d. (es decir. $P(U=-1)=P(U=1)=\tfrac12$ ), $\mathcal{G}=\sigma(U)$ , $\mathcal{H}=\sigma(V)$ y $X=UV$ . Ahora, se puede demostrar que $X$ y $U$ son independientes demostrando que $$ P(X=a,U=b)=P(X=a)P(U=b) $$ para cada combinación de $a,b\in \{0,1\}$ . Pero $\sigma(\sigma(X)\cup\sigma(V))$ es no independiente de $\sigma(U)$ ya que, por ejemplo $$ P(X=1,V=1,U=1)\neq P(X=1,V=1)P(U=1), $$ y por lo tanto no tenemos el supuesto de independencia más fuerte. En este caso, $$ E[X\mid \sigma(\mathcal{G}\cup\mathcal{H})]=UV\neq E[U]V=E[X\mid\mathcal{H}]. $$