Si $g$ es medible, entonces
$$
P(g(X,Z)\in A\mid X=x)=P(g(x,Z)\in A\mid X=x),\quad\in\mathcal{B}(\mathbb{R})
$$
tiene por $P_X$ -.una. $x$. En particular, si $Z$ es independiente de $X$, luego
$$
P(g(X,Z)\in A\mid X=x)=P(g(x,Z)\),\quad\in\mathcal{B}(\mathbb{R})
$$
tiene por $P_X$ -.una. $x$.
Esto se basa en el siguiente resultado general:
Si $U,T$ $S$ son variables aleatorias y $P_S(\cdot \mid T=t)$ denota una regular la probabilidad condicional de a$S$$T=t$, es decir,$P_S(A \mid T=t)=P(S\in A\mid T=t)$, luego
$$
{\rm E}[U\a mediados de T=t]=\int_\mathbb{R} {\rm E}[U\a mediados de T=t,S=s]\,P_S(\mathrm ds\mid T=t).\la etiqueta{*}
$$
Prueba: La definición de un regular de la probabilidad condicional se asegura de que
$$
{\rm E}[\psi(S,T)]=\int_\mathbb{R}\int_\mathbb{R} \psi(s,t)\,P_S(\mathrm ds\mid T=t)P_T(\mathrm dt)
$$
para medir y integrables $\psi$. Ahora vamos a $\psi(s,t)=\mathbf{1}_B(t){\rm E}[U\mid S=s,T=t]$ para un conjunto de Borel set $B$. Entonces
$$
\begin{align}
\int_{T^{-1}(B)} U\,\mathrm dP&={\rm E}[\mathbf{1}_B(T)U]={\rm E}[\mathbf{1}_B(T){\rm E}[U\mid S,T]]={\rm E}[\psi(S,T)]\\
&=\int_{\mathbb{R}}\int_{\mathbb{R}}\psi(s,t)\, P_S(\mathrm ds\mid T=t)P_T(\mathrm dt)\\
&=\int_B\varphi(t)P_T(\mathrm dt)
\end{align}
$$
con
$$
\varphi(t)=\int_\mathbb{R}{\rm E}[U\a mediados de T=t,S=s]\,P_S(\mathrm ds\mid T=t).
$$
Desde $B$ era arbitraria, llegamos a la conclusión de que $\varphi(t)={\rm E}[U\mid T=t]$.
Ahora, vamos a $A\in\mathcal{B}(\mathbb{R})$ y el uso de $(*)$ $U=\psi(X,Z)$ donde $\psi(x,z)=\mathbf{1}_{g^{-1}(A)}(x,z)$ y $S=Z$, $T=X$. A continuación, tomamos nota de que
$$
{\rm E}[U\mid X=x,Z=z]={\rm E}[\psi(X,Y)\mid X=x,Z=z]=\psi(x,z)
$$
por definición de la esperanza condicional y por lo tanto por $(*)$ hemos
$$
\begin{align}
P(g(X,Z)\in A\mid X=x)&={\rm E}[U\mid X=x]=\int_\mathbb{R} \psi(x,z)\,P_Z(\mathrm dz\mid X=x)\\
&=P(g(x,Z)\in A\mid X=x).
\end{align}
$$