Enunciaré y demostraré un teorema general que justifica formalmente por qué se puede pensar que un puente browniano es el mismo objeto que un movimiento browniano condicionado a su valor terminal (quizás esta respuesta tenga un poco más de sentido si uno está familiarizado con las probabilidades condicionales regulares).
Así que dejemos $B=(B_t)_{t \in [0,1]}$ sea un movimiento browniano en $[0,1]$ . Para $x \in \Bbb R$ Lo haré definir el puente browniano que termina en $x$ para ser el proceso $\tilde B_t^x := B_t-t(B_1-x)$ y demostraré que esta definición ingenua coincide con tu definición de probabilidad condicional.
Dejemos que $\mu$ denotan la ley de $B$ y que $\mu^x$ denotan la ley de $\tilde B^x$ considerados como medidas de probabilidad en $C[0,1]$ equipado con su Borel $\sigma$ -álgebra. En otras palabras, $\mu(A):=P(B \in A)$ y $\mu^x(A) := P(\tilde B^x \in A)$ para los conjuntos de Borel $A \subset C[0,1]$ .
Teorema: Todas las siguientes afirmaciones son ciertas:
- La Ley de $\tilde B^x$ es la ley de $B$ con la condición de $B_1=x$ . Formalmente, esto significa que para cualquier función acotada medible $f:C[0,1] \to \Bbb R$ tenemos que $$\Bbb E[f(B) |B_1] = \int_{C[0,1]} f(\varphi) \; \mu^{B_1}(d\varphi), \;\;\;\;\; a.s.$$ donde el lado derecho debe interpretarse como una variable aleatoria $\omega \mapsto \int f(\varphi) \;\mu^{B_1(\omega)}(d\varphi) $ . Otra forma de decirlo es que el mapa $(x,A) \mapsto \mu^x(A)$ es una probabilidad condicional regular para $B$ con respecto a $B_1$ .
- $B$ puede descomponerse como la suma independiente $B = \tilde B^0 + tB_1$ . Equivalentemente, para cualquier subconjunto medible $A \subset C[0,1]$ , $$\mu(A) = \frac{1}{\sqrt{2\pi}} \int_{\Bbb R} \mu^x(A) e^{-x^2/2} dx$$
- Para cualquier función continua $f:C[0,1] \to \Bbb R$ y cualquier $x \in \Bbb R$ , $$\lim_{\epsilon \to 0} \Bbb E\big[f(B) \;\big| \; |B_1-x| < \epsilon \big] = \Bbb E[f( \tilde B^x) ] =\int_{C[0,1]} f(\varphi) \; \mu^x(d\varphi)$$ Si $f$ se supone simplemente acotada y medible, la misma conclusión sigue siendo válida para casi todos los $x \in \Bbb R$ .
- En términos de funciones de densidad, tenemos que $$f_{\tilde B^x_{t_1},...,\tilde B_{t_n}^x}(y_1,...,y_n) = \frac{f_{B_1,B_{t_1},..., B_{t_n}}(x,y_1,...,y_n)}{f_{B_1}(x)}$$
Prueba: Primero probaremos el 2, luego el 1, luego el 3 y luego el 4.
Prueba de 2 : Utilizaremos el siguiente hecho: Si $(X_t,Y_t)_{t \in [0,1]}$ es un proceso gaussiano conjunto tal que $cov(X_t,Y_s)=0$ para todos $s,t$ entonces $X$ y $Y$ son independientes. De hecho, esto implicaría la independencia de las distribuciones de dimensión finita, que (a través de la $\pi$ - $\lambda$ ) implica la independencia con respecto al producto $\sigma$ -álgebra en $\Bbb R^{[0,1]}$ que coincide con la de Borel $\sigma$ -cuando se restringe a $C[0,1]$ . Utilizando este hecho junto con el hecho de que $cov(B_t-tB_1,B_1)=0$ para todos $t\in [0,1]$ vemos que $(B_t-tB_1)_{t\in[0,1]}= \tilde B^0$ es independiente de $B_1$ . Esto demuestra la primera parte de la afirmación 2, y para la segunda parte, utilizamos la independencia de $\tilde B^0$ y $B_1$ para decir $$\mu(A) = P( B \in A) = P\big((\tilde B^0_t+tB_1)_{t\in[0,1]} \in A\big) = \int_{\Bbb R} P\big((\tilde B^0_t+tx)_{t\in[0,1]} \in A\big) \; \Bbb P^{B_1}(dx) $$$$ = \int_ { \Bbb R} P( \tilde B^x_t \in A) \; \Bbb P^{B_1}(dx)= \frac {1}{ \sqrt {2 \pi }} \int_ { \Bbb R} \mu ^x(A)e^{-x^2/2}dx$$ lo que demuestra la fórmula en 2.
Prueba de 1: Como corolario de la fórmula en 2, si $f: C[0,1] \to \Bbb R$ es cualquier función medible acotada, entonces $$\int_{C[0,1]} f(\phi) \mu(d\phi) = \frac{1}{\sqrt{2\pi}}\int_{\Bbb R} \bigg[\int_{C[0,1]} f(\phi) \mu^x(d\phi)\bigg] e^{-x^2/2}dx$$ En consecuencia, si $A \subset \Bbb R$ es cualquier conjunto medible de Borel, entonces $$\Bbb E[f(B)1_{\{B_1 \in A\}}] = \int_{C[0,1]} f(\phi) 1_A(\phi(1)) \;\mu(d\phi)$$ $$=\frac{1}{\sqrt{2\pi}}\int_{\Bbb R} \bigg[\int_{C[0,1]} f(\phi)1_A(x) \mu^x(d\phi)\bigg] e^{-x^2/2}dx $$$$ = \frac {1}{ \sqrt {2 \pi }} \int_ {A} \bigg [ \int_ {C[0,1]} f( \phi ) \mu ^x(d \phi ) \bigg ]e^{-x^2/2}dx $$ $$ = \Bbb E \bigg [ \bigg ( \int_ {C[0,1]} f(x) \N -; \mu ^{B_1}(dx) \bigg ) \cdot 1_{\{B_1 \in A\}} \bigg $$ que demuestra la fórmula en 1.
Prueba de 3: Dejemos que $f:C[0,1] \to \Bbb R$ sea continua, y fije algunos $x \in \Bbb R$ . Imitando la prueba de 1, encontramos que $$ \Bbb E[f(B) \cdot 1_{\{|B_1-x|< \epsilon\}}] = \frac{1}{\sqrt{2\pi}} \int_{x-\epsilon}^{x+\epsilon} \bigg[ \int_{C[0,1]} f(\phi) \mu^u(d\phi)\bigg] e^{-u^2/2}du$$ Por lo tanto, $$\Bbb E\big[f(B) \;\big|\;|B_1-x|<\epsilon\big] := \frac{\Bbb E[f(B) \cdot 1_{\{|B_1 -x|<\epsilon\}}]}{P(|B_1-x|<\epsilon)}$$$$ = \frac { \int_ {x- \epsilon }^{x+ \epsilon } \bigg [ \int_ {C[0,1]} f( \phi ) \mu ^u(d \phi ) \bigg ] e^{-u^2/2}du}{ \int_ {x- \epsilon }^{x+ \epsilon } e^{-u^2/2}du} $$Now letting $\epsilon \to 0 $ and using continuity of $ f $ (together with weak continuity of $ u \mapsto \mu ^u $) we get that $$\lim_ { \epsilon \to 0} \Bbb E \big [f(B) \ ~ -; \big |\ y la de los demás. \epsilon\big ]= \int_ {C[0,1]}f( \phi ) \mu ^x(d \phi ) = \Bbb E[f( \tilde B^x)] $$ This proves the claim for continuous $ f $. If $ f$ es simplemente acotado y medible, la afirmación se sigue de forma similar pero aplicamos el teorema de diferenciación de Lebesgue en el último paso.
Prueba de 4: Queremos demostrar que $f_{B_1}(x)f_{\tilde B^x_{t_1},...,\tilde B_{t_n}^x}(y_1,...,y_n)=f_{B_1,B_{t_1},..., B_{t_n}}(x,y_1,...,y_n)$ es decir, que para una medida acotada $g:\Bbb R^n \to \Bbb R$ y los conjuntos de Borel $A \subset \Bbb R$ , $$\int_A\bigg[\int_{\Bbb R^{n}} f_{\tilde B^x_{t_1},...,\tilde B_{t_n}^x}(y_1,...,y_n)g(y_1,...,y_n)dy_1 \cdots dy_n\bigg]f_{B_1}(x)dx = \Bbb E[g(B_{t_1},...,B_{t_n})\cdot 1_{\{B_1 \in A\}}]$$ Pero el LHS se puede reescribir como $$\frac{1}{\sqrt{2\pi}} \int_{A} \Bbb E \big[ g(\tilde B^x_{t_1},...,\tilde B^x_{t_n})\big] e^{-x^2/2}dx$$ $$=\frac{1}{\sqrt{2\pi}} \int_{A}\bigg[ \int_{C[0,1]} g(\phi(t_1), \dots, \phi(t_n)) \mu^x(d\phi) \bigg] e^{-x^2/2}dx$$ $$=\int_{C[0,1]} g(\phi(t_1),...,\phi(t_n))\cdot 1_A(\phi(1)) \mu(d\phi)$$ $$=\Bbb E[g(B_{t_1},...,B_{t_n})\cdot 1_{\{B_1 \in A\}}]$$ donde utilizamos la fórmula de 2 en la tercera igualdad. Esto demuestra la afirmación.