162 votos

¿Cómo determinar con certeza que una función no tiene antiderivada elemental?

Dada una expresión como $f(x) = x^x$ ¿es posible proporcionar una prueba exhaustiva y rigurosa de que no existe una función $F(x)$ (expresable en términos de funciones algebraicas y trascendentales conocidas) tal que $ \frac{d}{dx}F(x) = f(x)$ ? En otras palabras, ¿cómo se puede demostrar rigurosamente que $f(x)$ no tiene una antiderivada elemental?

2 votos

Teoría diferencial de Galois, creo.

8 votos

3 votos

Por favor, mire el Algoritmo Risch. Esto no es exactamente un algoritmo, pero hace bien el trabajo, en principio, para muchas funciones elementales.

188voto

user21783 Puntos 11

Para obtener algunos antecedentes y referencias puede comenzar con esto Hilo de la SE .

En cuanto a su pregunta concreta sobre $z^z$ aquí hay un extracto de un respuesta de sci.math por Matthew P Wiener :

"Por último, consideramos el caso $I(z^z)$ .

Así que esta vez, deja que $F=C(z,l)(t)$ el campo de las funciones racionales en $z,l,t$ , donde $l=\log z\,$ y $t=\exp(z\,l)=z^z$ . Tenga en cuenta que $z,l,t$ son algebraicamente independientes. (Elija algún dominio de definición apropiado.) Entonces $t'=(1+l)t$ Así pues, para $a=t$ en la situación anterior, la fracción parcial (del tipo realizado en los posts anteriores) muestra que la única posibilidad es que $v=wt+\cdots$ para ser la fuente del $t$ término a la izquierda, con $w$ en $C(z,l)$ .

Así que esto significa, equiparar $t$ coeficientes, $1=w'+(l+1)w$ . Se trata de una EDO de primer orden, cuya solución es $w=\frac{I(z^z)}{z^z}$ . Así que debemos demostrar que no hay tal $w$ existe en $C(z,l)$ .
Así que supongamos (como en uno de los posts de Ray Steiner) $w=\frac PQ$ con $P,Q$ en $C[z,l]$ y que no tienen factores comunes. Entonces $z^z= \left(z^z\cdot \frac PQ\right)'=z^z\cdot\frac{[(1+l)PQ+P'Q-PQ']}{Q^2}$ o $Q^2=(1+l)PQ+P'Q-PQ'$ .

Así que $Q|Q'$ , lo que significa $Q$ es una constante, que podemos suponer que es uno. Así que tenemos que $P'+P+lP=1$ .

Dejemos que $P=\sum_{i=0}^n [P_i l^i]$ con $P_i, i=0\cdots n \in C[z]$ . Pero entonces, en nuestra ecuación, hay un colgante $P_n l^{n+1}$ término, una contradicción".

$$-$$

Para futuras referencias, aquí hay una re-transcripción completa de Matthew P Wiener $1997$ artículo de sci.math (convertido en $\LaTeX$ por mí mismo: ¡no dude en arreglarlo!).
Una cuidada traducción al francés de Denis Feldmann está disponible en su página web .


¿Cuál es la antiderivada de $\ e^{-x^2}\ $ ? de $\ \frac{\sin(x)}x\ $ ? de $\ x^x\ $ ?


Estos, y algunos problemas similares, no se pueden hacer.

Más concretamente, consideremos la noción de "función elemental". Son las funciones que pueden expresarse en términos de exponenciales y logaritmos, mediante los procesos algebraicos habituales, incluida la resolución (con o sin radicales) de polinomios. Dado que las funciones trigonométricas y sus inversas pueden expresarse en términos de exponenciales y logaritmos utilizando los números complejos $\mathbb{C}$ También estos son elementales.

Las funciones elementales son, por así decirlo, las "funciones de precálculo".

Entonces hay un teorema que dice que ciertas funciones elementales no tienen una antiderivada elemental. Siguen teniendo antiderivadas, pero "no se pueden hacer". Las más comunes reciben sus propios nombres. Hasta algunos factores de escala, " $\mathrm{erf}$ "es la antiderivada de $e^{-x^2}$ y " $\mathrm{Si}$ "es la antiderivada de $\frac{\sin(x)}x$ y así sucesivamente.


Para aquellos con un poco de álgebra de pregrado, esbozamos una prueba de estas y algunas otras, utilizando la noción de campo diferencial. Se trata de campos $(F,+,\cdot,1,0)$ equipado con una derivación, es decir, un operador unario $'$ Satisfaciendo a $(a+b)'=a'+b'$ y $(a.b)'=a.b'+a'.b$ . Dado un campo diferencial $F$ hay un subcampo $\mathrm{Con}(F)=\{a:a'=0\}$ , llamado el constantes de $F$ . Dejamos que $I(f)$ denotan una antiderivada. Ignoramos $+C$ s.

La mayoría de los ejemplos en la práctica son subcampos de $M$ las funciones meromórficas sobre $\mathbb{C}$ (o algún dominio). Debido a la singularidad de las extensiones analíticas, rara vez hay que especificar el dominio preciso.

Dados los campos diferenciales $F$ y $G$ con $F$ un subcampo de $G$ se llama $G$ una extensión algebraica de $F$ si $G$ es una extensión de campo finito de $F$ .

Una llamada $G$ una extensión logarítmica de $F$ si $G=F(t)$ para algún trascendental $t$ que satisface $t'=\dfrac{s'}s$ , algunos $s$ en $F$ . Podemos pensar en $t$ como $\;\log s$ pero hay que tener en cuenta que en realidad no estamos hablando de una función logarítmica sobre $F$ . Simplemente tenemos un nuevo elemento con la derivada correcta. Habría que adosar otros "logaritmos" según sea necesario.

Del mismo modo, se llama $G$ una extensión exponencial de $F$ si $G=F(t)$ para algún trascendental $t$ que satisface $t'=t.s'$ , algunos $s$ en $F$ . De nuevo, podemos pensar en $t$ como $\;\exp s$ pero no hay una función exponencial real en $F$ .

Por último, llamamos a $G$ una extensión diferencial elemental de $F$ si existe una cadena finita de subcampos desde $F$ a $G$ Cada uno de ellos es una extensión algebraica, logarítmica o exponencial del siguiente campo más pequeño.

El siguiente teorema, en el caso especial de $M$ se debe a Liouville. La generalidad algebraica se debe a Rosenlicht. Risch, Davenport y otros han demostrado teoremas más potentes, que constituyen el núcleo de los paquetes de integración simbólica.

En el artículo de Rosenlicht sobre la AMM (ver referencias) se puede encontrar una breve demostración, accesible para aquellos con una sólida formación en álgebra de grado. Probablemente sea más fácil dominar primero sus aplicaciones, que a menudo utilizan técnicas similares, y luego aprender la demostración.


TEOREMA PRINCIPAL . Sea $F,G$ sean campos diferenciales, y que $a$ estar en $F$ , dejemos que $y$ estar en $G$ y supongamos que $y'=a$ y $G$ es un campo de extensión diferencial elemental de $F$ y $\mathrm{Con}(F)=\mathrm{Con}(G)$ . Entonces existe $c_1,...,c_n \in \mathrm{Con}(F), u_1,\cdots,u_n, v\in F$ tal que

$$a = c_1\frac{u_1'}{u_1}+ ... + c_n\frac{u_n'}{u_n}+ v'$$

Es decir, las únicas funciones que tienen antiderivadas elementales son las que tienen esta forma tan específica. En palabras, las integrales elementales consisten siempre en una función del mismo nivel de "complejidad" algebraica que la función de partida (la $v$ ), junto con los logaritmos de las funciones del mismo nivel de "complejidad" algebraica (el $u_i$ 's).


Este es un teorema muy útil para demostrar la no integrabilidad. Como este tema es interesante, pero sólo está escrito a trozos, doy numerosos ejemplos. (Desde la versión original de este FAQ de hace tiempo, han aparecido dos escritos sobre cómo trabajar con él. Véase Fitt & Hoare y Marchisotto & Zakeri en las referencias).

En el caso habitual, $F,G$ son subcampos de $M$ Así que $\mathrm{Con}(F)=\mathrm{Con}(G)$ siempre se mantiene, siendo ambos $\mathbb{C}$ . Como comentario al margen, señalamos que esta igualdad es necesaria. En $\mathbb{R}(x)$ , $\frac 1{1+x^2}$ tiene una antiderivada elemental, pero ninguna de la forma anterior.

Primero aplicamos este teorema al caso de integrar $f\cdot\exp(g)$ con $f$ y $g$ funciones racionales. Si $g=0$ Esto es sólo $f$ que se puede integrar mediante fracciones parciales. Por lo tanto, supongamos $g$ es distinto de cero. Sea $t=\exp(g)$ Así que $t'=g't$ . Desde $g$ no es cero, tiene un polo en alguna parte (quizás en el infinito), por lo que $\exp(g)$ tiene una singularidad esencial, y por lo tanto $t$ es trascendental sobre $C(z)$ . Sea $F=C(z)(t)$ y que $G$ sea una extensión diferencial elemental que contenga una antiderivada para $f\cdot t$ .

Entonces se aplica el teorema de Liouville, por lo que podemos escribir

$$f\cdot t = c_1\frac{u_1'}{u_1} + \cdots + c_n \frac{u_n'}{u_n} + v'$$

con el $c_i$ constantes y el $u_i$ y $v$ en $F$ . Cada $u_i$ es una relación de dos $C(z)[t]$ polinomios, $\dfrac UV$ decir. Pero $\dfrac {(U/V)'}{U/V}=\dfrac {U'}U-\dfrac{V'}V$ (regla del cociente), por lo que podemos reescribir lo anterior y suponer que cada $u_i$ está en $C(z)[t]$ . Y si algún $u_i=U\cdot V$ factores, entonces $\dfrac{(U\cdot V)'}{(U\cdot V)}=\dfrac {U'}U+\dfrac {V'}V$ y así podemos suponer además que cada $u_i$ es irreducible sobre $C(z)$ .

¿Qué hace un típico $\frac {u'}u$ ¿se ve así? Por ejemplo, consideremos el caso de $u$ cuadrática en $t$ . Si $A,B,C$ son funciones racionales en $C(z)$ entonces $A',B',C'$ son también funciones racionales en $C(z)$ y

\begin{align} \frac {(A.t^2+B.t+C)'}{A.t^2+B.t+C} &= \frac{A'.t^2 + 2At(gt) + B'.t + B.(gt) + C'}{A.t^2 + B.t + C}\\ &= \frac{(A'+2Ag).t^2 + (B'+Bg).t + C'}{A.t^2 + B.t + C}\\ \end{align}

(Obsérvese que, contrariamente a la situación habitual, el grado de un polinomio en $t$ se mantiene igual después de la diferenciación. Esto se debe a que estamos tomando derivadas con respecto a $z$ no $t$ . Si escribimos esto explícitamente, obtenemos $(t^n)' = \exp(ng)' = ng'\cdot \exp(ng) = ng'\cdot t^n$ .)

En general, cada $\frac {u'}u$ es un cociente de polinomios del mismo grado. Podemos, haciendo un paso de una división larga, escribirlo también como $D+\frac Ru$ para algunos $D \in C(z)$ y $R \in C(z)[t]$ con $\deg(R)<\deg(u)$ .

Tomando fracciones parciales, podemos escribir $v$ como una suma de a $C(z)[t]$ polinomio y algunas fracciones $\frac P{Q^n}$ con $\deg(P)<\deg(Q)$ , $Q$ irreducible, con cada $P,Q \in C(z)[t]$ . $v'$ será, por tanto, un polinomio más términos parecidos a una fracción parcial.

De alguna manera, esto se supone que sale a sólo $f\cdot t$ . Por la unicidad de las descomposiciones de fracciones parciales, todos los términos que no sean múltiplos de $t$ suman $0$ . Sólo la parte polinómica de $v$ puede contribuir a $f\cdot t$ y éste debe ser un monomio sobre $C(z)$ . Así que $f\cdot t=(h\cdot t)'$ para algunos racionales $h$ . (La tentación de afirmar $v=h\cdot t$ aquí es incorrecto, ya que podría haber algún $C(z)$ plazo, anulado por $\frac {u'}u$ términos. Sólo tenemos que identificar los términos en $v$ que contribuyen a $f\cdot t$ por lo que no tiene importancia).

Resumiendo, si $f\cdot \exp(g)$ tiene una antiderivada elemental, con $f$ y $g$ funciones racionales, $g$ no es cero, entonces es de la forma $h\cdot \exp(g)$ con $h$ racional.

Elaboramos ejemplos particulares, de ésta y otras aplicaciones relacionadas. Una función entre corchetes puede reducirse al ejemplo especificado mediante un cambio de variables.

$\quad\boxed{\displaystyle\exp\bigl(z^2\bigr)}$ $\quad\left[\sqrt{z}\cdot\exp(z),\frac{\exp(z)}{\sqrt{z}}\right]$

Dejemos que $h\cdot \exp\bigl(z^2\bigr)$ sea su antiderivada. Entonces $h'+2zh=1$ .
Al resolver esta EDO se obtiene $h=\exp(-z^2)\cdot I\left(\exp\bigl(z^2\bigr)\right)$ que no tiene polos (excepto quizás en el infinito), por lo que $h$ si es racional, debe ser un polinomio. Pero la derivada de $h$ no puede cancelar la potencia principal de $2zh$ contradicción.

$\quad\boxed{\displaystyle\frac{\exp(z)}z}$ $\quad\left[\exp(\exp(z)),\frac 1{\log(z)}\right]$

Dejemos que $h\cdot \exp(z)$ sea una antiderivada. Entonces $h'+h=\frac 1z$ . Conozco dos formas rápidas de demostrarlo $h$ no es racional.

Se puede resolver explícitamente la EDO de primer orden (obteniendo $\exp(-z)\cdot I\left(\frac{\exp(z)}z\right))$ y luego notar que la solución tiene una singularidad logarítmica en el cero. Por ejemplo, $h(z)\to\infty$ pero $\sqrt{z}\cdot h(z)\to 0$ como $z\to 0$ . Ninguna función racional hace esto.

O se puede asumir $h$ tiene una descomposición parcial de la fracción. Evidentemente, no $h'$ plazo dará $\frac 1z$ Así que $\frac 1z$ debe estar presente en $h$ ya. Pero $\left(\frac 1z\right)'=-\frac 1{z^2}$ , y esto es parte de $h'$ . Así que hay un $\frac 1{z^2}$ en $h$ para cancelar esto. Pero $\left(\frac 1{z^2}\right)'$ es $-\frac 2{z^3}$ y esto es de nuevo parte de $h'$ . Y de nuevo, algo en $h$ cancela esto, etc. etc. Esta regresión infinita es imposible.

$\quad\boxed{\displaystyle\frac {\sin(z)}z}$ $\quad[\sin(\exp(z))]$

$\quad\boxed{\displaystyle\sin\bigl(z^2\bigr)}$ $\quad\left[\sqrt{z}\sin(z),\frac{\sin(z)}{\sqrt{z}}\right]$

Desde $\sin(z)=\frac 1{2i}[\exp(iz)-\exp(-iz)]$ Simplemente, reformulamos lo anterior $f\cdot \exp(g)$ resultado. Sea $f$ sea racional, dejemos que $t=\exp(iz)$ (así $\frac {t'}t=i$ ) y que $T=\exp(iz^2)$ (así $\frac{T'}T=2iz$ ) y queremos una antiderivada de $\frac 1{2i}f\cdot\left(t-\frac 1t\right)$ o $\frac 1{2i}f\cdot(T-\frac 1T)$ . En el caso de la primera, se siguen aplicando los mismos resultados de la fracción parcial para identificar $\frac 1{2i}f\cdot t=(h\cdot t)'=(h'+ih)\cdot t$ que no puede pasar por $f=\frac 1z$ como en el caso anterior. En el caso de $f\cdot\sin\bigl(z^2\bigr)$ queremos $\frac 1{2i}f\cdot T=(h\cdot T)'=(h'+2izh)\cdot T$ Y de nuevo, esto no puede ocurrir por $f=1$ como en el caso anterior.

Aunque ya está hecho, impulsamos este análisis en el $f\cdot \sin(z)$ caso, ya que hay términos extra colgando. Esta vez, la conclusión da un $\frac kt$ plazo en el interior $v$ , por lo que tenemos $-\frac 1{2i}\frac ft=\left(\frac kt\right)'=\frac{k'-ik}t$ . Así que la antiderivada de $\frac 1{2i}f\cdot\left(t-\frac 1t\right)$ es $h\cdot t+\frac kt$ .

Si $f$ es par y real, entonces $h$ y $k$ (como $t=\exp(iz)$ y $\frac 1t=\exp(-iz)$ ) son inversiones de paridad entre sí, por lo que (como era de esperar) la antiderivada es par.
Dejar $C=\cos(z), S=\sin(z), h=H+iF$ y $k=K+iG$ la parte real (y única) de la antiderivada de $f$ es $(HC-FS)+(KC+GS)=(H+K)C+(G-F)S$ .
Así que sobre los reales, encontramos que la antiderivada de (racional par). $\sin(x)$ es de la forma (racional par). $\cos(x)+$ (impar racional). $\sin(x)$ .

Un resultado similar es válido para (impar) $\cdot\sin(x)$ (incluso) $\cdot\cos(x)$ (impar) $\cdot\cos(x)$ . Y puesto que una función racional es la suma de sus partes (racionales) pares e Impares, (racional) $\cdot\sin$ se integra a (racional) $\cdot\sin$ + (racional) $\cdot\cos$ o no.

Retrocedamos y apliquemos esto a $\dfrac {\sin(x)}x$ directamente, utilizando sólo los reales. Si tiene una antiderivada elemental, debe ser de la forma $E\cdot S+O\cdot C$ . Tomando las derivadas se obtiene $(E'-O)\cdot S+(E+O')\cdot C$ . Como en el caso de las fracciones parciales, tenemos un único $R(x)[S,C]$ aquí (esto es un poco complicado, ya que $S^2=1-C^2$ este paso se puede demostrar directamente o mediante la resolución de $t, \frac 1t$ coeficientes sobre $C$ ). Así que $E'-O=\frac 1x$ y $E+O'=0$ o $O''+O=-\frac 1x$ . Expresando $O$ en forma de fracción parcial, está claro que sólo $(-\frac 1x)$ en $O$ puede contribuir a $-\frac 1x$ . Así que hay un $-\frac 2{x^3}$ término en $O''$ , por lo que hay un $\frac 2{x^3}$ término en $O$ para anularla, y así sucesivamente, una regresión infinita. Por lo tanto, no hay tal racional $O$ .

$\quad\boxed{\displaystyle\frac{\arcsin(z)}z}$ $\quad[z.\tan(z)]$

Consideramos el caso en el que $F=C(z,Z)(t)$ como un subcampo de las funciones meromórficas sobre algún dominio, donde $z$ es la función de identificación, $Z=\sqrt{1-z^2}$ y $t=\arcsin z$ . Entonces $Z'=-\frac zZ$ y $t'=\frac 1Z$ . En el resultado del teorema principal nos preguntamos si esto puede ocurrir con $a=\frac tz$ y algún campo $G$ . $t$ es trascendental sobre $C(z,Z)$ ya que tiene infinitos puntos de ramificación.

Así que consideramos la situación más general de $f(z)\cdot \arcsin(z)$ donde $f(z)$ es racional en $z$ y $\sqrt{1-z^2}$ . Dejando que $z=\frac {2w}{1+w^2}$ , tenga en cuenta que los miembros de $C(z,Z)$ son siempre elementalmente integrables.

Porque $x^2+y^2-1$ es irreducible, $\frac{C[x,y]}{x^2+y^2-1}$ es un dominio integral, $C(z,Z)$ es isomorfo a su campo de cocientes de la manera obvia, y $C(z,Z)[t]$ es una UFD cuyo campo de cocientes es susceptible de análisis de fracciones parciales en la variable $t$ . Lo que sigue tiene lugar a veces en varios $z$ -extensiones algebraicas de $C(z,Z)$ (que puede no tener una factorización única), pero los términos deben combinarse para dar algo en $C(z,Z)(t)$ donde las descomposiciones parciales de las fracciones son únicas, y por lo tanto el $t$ plazo será el reclamado.

Así, si podemos integrar $f(z)\cdot\arcsin(z)$ tenemos $f\cdot t$ = $\sum$ de $\frac {u'}u s$ y $v'$ por el teorema principal.

El $u$ pueden, por diferenciación logarítmica en el campo de extensión algebraico apropiado (recordemos que las raíces son funciones analíticas de los coeficientes, y $t$ es trascendental sobre $C(z,Z)$ ), se supone que todos son lineales $t+r$ con $r$ algebraico sobre $z$ . Entonces $\frac {u'}u=\frac {1/Z+r'}{t+r}$ . Cuando combinamos estos términos en $C(z,Z)$ No forman una $t$ término (ni ningún poder superior de $t$ ni una constante).

Descomposición de la fracción parcial de $v$ nos da un polinomio en $t$ con coeficientes en $C(z,Z)$ más los múltiplos de las potencias de los lineales $t$ términos. Estos últimos no contribuyen a una $t$ término, como en el caso anterior.

Si el polinomio es lineal o cuadrático, digamos $v=g\cdot t^2 + h\cdot t + k$ entonces $v'=g'\cdot t^2 + \left(\frac{2g}Z+h'\right)\cdot t + \left(\frac hZ+k'\right)$ . Nada puede anular la $g'$ Así que $g$ es sólo una constante $c$ . Entonces $\frac {2c}Z+h'=f$ o $I(f\cdot t)=2c\cdot t+I(h'\cdot t)$ . El $I(h'.t)$ puede integrarse por partes. Así que la antiderivada resulta $c\cdot(\arcsin(z))^2 + h(z)\cdot \arcsin(z) - I\left(\frac{h(z)}{\sqrt{1-z^2}}\right)$ y, como se ha observado anteriormente, esta última es elemental.

Si el polinomio es cúbico o superior, que $v=A.t^n+B.t^{n-1}+\cdots$ entonces $v'=A'.t^n + \left(n\cdot\frac AZ+B'\right).t^{n-1} +\cdots$ $A$ debe ser una constante $c$ . Pero entonces $\frac{nc}Z+B'=0$ Así que $B=-nct$ , contradiciendo $B$ estar en $C(z,Z)$ .

En particular, dado que $\frac 1z + \frac c{\sqrt{1-z^2}}$ no tiene un racional en " $z$ y/o $\sqrt{1-z^2}$ " antiderivada, $\frac {\arcsin(z)}z$ no tiene una integral elemental.

$\quad\boxed{\displaystyle z^z}$

En este caso, dejemos que $F=C(z,l)(t)$ el campo de las funciones racionales en $z,l,t$ , donde $l=\log z$ y $t=\exp(z\,l)=z^z$ . Tenga en cuenta que $z,l,t$ son algebraicamente independientes. (Elija algún dominio de definición apropiado.) Entonces $t'=(1+l)t$ Así pues, para $a=t$ en la situación anterior, el análisis de fracciones parciales (del tipo realizado en los posts anteriores) muestra que la única posibilidad es que $v=wt+\cdots$ para ser la fuente del $t$ a la izquierda, con $w$ en $C(z,l)$ .

Así que esto significa, equiparar $t$ coeficientes, $1=w'+(l+1)w$ . Se trata de una EDO de primer orden, cuya solución es $w=\frac{I(z^z)}{z^z}$ . Así que debemos demostrar que no hay tal $w$ existe en $C(z,l)$ . Así que supongamos (como en uno de los posts de Ray Steiner) $w=P/Q$ con $P,Q$ en $C[z,l]$ y que no tienen factores comunes. Entonces $z^z= \left(z^z\cdot \frac PQ\right)'=z^z\cdot\frac{[(1+l)PQ+P'Q-PQ']}{Q^2}$ o $Q^2=(1+l)PQ+P'Q-PQ'$ .

Así que $Q|Q'$ , lo que significa $Q$ es una constante, que podemos suponer que es uno. Así que tenemos que $P'+P+lP=1$ .

Dejemos que $P=\sum_{i=0}^n [P_i l^i]$ con $P_i, i=0\cdots n \in C[z]$ . Pero entonces, en nuestra ecuación, hay un colgante $P_n l^{n+1}$ término, una contradicción.


Por una ligera tangente, este teorema de Liouville no te dirá que las funciones de Bessel no son elementales, ya que están definidas por EDO de segundo orden. Esto se puede demostrar utilizando la teoría diferencial de Galois. Una variante del teorema anterior de Liouville, con una forma normal diferente, muestra sin embargo que $J_0$ no se puede integrar en términos de métodos elementales aumentados con funciones de Bessel.


Lo que sigue es un esbozo bastante completo de la demostración del Teorema Principal. En primer lugar, sólo enuncio algunos lemas fáciles (si has estudiado Teoría de Galois 101).

A lo largo de los lemas $F$ es un campo diferencial, y $t$ es trascendental sobre $F$ .

  • Lema $1$ : Si $K$ es un campo de extensión algebraica de $F$ entonces existe una forma única de extender el mapa de derivación de $F$ a $K$ para hacer $K$ en un campo diferencial.
  • Lema $2$ : Si $K=F(t)$ es un campo diferencial con derivación que se extiende $F$ 's, y $t'$ está en $F$ entonces para cualquier polinomio $f(t)$ en $F[t]$ , $f(t)'$ es un polinomio en $F[t]$ del mismo grado (si el coeficiente principal no está en $\mathrm{Con}(F)$ ) o de grado uno menos (si el coeficiente principal está en $\mathrm{Con}(F)$ ).
  • Lema $3$ : Si $K=F(t)$ es un campo diferencial con derivación que se extiende $F$ 's, y $\frac{t'}t$ está en $F$ entonces para cualquier $a$ en $F$ , $n$ un número entero positivo, existe $h$ en $F$ tal que $(a\cdot t^n)'=h\cdot t^n$ . En general, si $f(t)$ es cualquier polinomio en $F[t]$ entonces $f(t)'$ es del mismo grado que $f(t)$ y es un múltiplo de $f(t)$ si $f(t)$ es un monomio.

Todo esto es bastante elemental. Por ejemplo, $(a\cdot t^n)'=\bigl(a'+a\frac {t'}t\bigr)\cdot t^n$ en el lema $3$ . El último "si" del lema $3$ es donde la trascendencia de $t$ viene en. Lema $1$ en el caso habitual de los subcampos de $M$ es una consecuencia fácil del teorema de la función implícita.


TEOREMA PRINCIPAL . Sea $F,G$ sean campos diferenciales, y que $a$ estar en $F$ , dejemos que $y$ estar en $G$ y supongamos que $y'=a$ y $G$ es un campo de extensión diferencial elemental de $F$ y $\mathrm{Con}(F)=\mathrm{Con}(G)$ . Entonces existe $c_1,...,c_n \in \mathrm{Con}(F), u_1,\cdots,u_n, v\in F$ tal que

$$(*)\quad a = c_1\frac{u_1'}{u_1}+ ... + c_n\frac{u_n'}{u_n}+ v'$$

En otras palabras, las únicas funciones que tienen antiderivadas elementales son las que tienen esta forma tan específica.


Prueba:

Por supuesto, existe una cadena finita de campos que conecta $F$ a $G$ tal que la extensión de un campo al siguiente viene dada por la realización de una extensión algebraica, logarítmica o exponencial. Demostramos que si la forma $(*)$ puede satisfacerse con valores en $F2$ y $F2$ es uno de los tres tipos de extensiones permitidas de $F1$ , entonces la forma $(*)$ puede satisfacerse en $F1$ . La forma $(*)$ se satisface obviamente en $G$ que todos los $c$ de ser $0$ El $u$ de ser $1$ y que $v$ sea el original $y$ para lo cual $y'=a$ . Así, si la forma $(*)$ se puede bajar un campo, podremos bajarlo a $F$ y el teorema se cumple.

Por lo tanto, podemos suponer sin pérdida de generalidad que $G=F(t)$ .

  • Caso $1$ : $t$ es algebraico sobre $F$ . Diga $t$ es de grado $k$ . Entonces hay polinomios $U_i$ y $V$ tal que $U_i(t)=u_i$ y $V(t)=v$ . Así que tenemos $$a = c_1 \frac{U_1(t)'}{U_1(t)} +\cdots + c_n \frac{ U_n(t)'}{U_n(t)} + V(t)'$$ Ahora, por la unicidad de las extensiones de las derivadas en el caso algebraico, podemos sustituir $t$ por cualquiera de sus conjugados $t_1,\cdots, t_k,$ y la misma ecuación se mantiene. En otras palabras, porque $a$ está en $F$ se fija bajo los automorfismos de Galois. Sumando sobre los conjugados, y convirtiendo el $\frac {U'}U$ términos en productos utilizando la diferenciación logarítmica, tenemos $$k a = c_1 \frac{[U_1(t_1)\times\cdots\times U_1(t_k)]'}{U_1(t_1)\times \cdots \times U_n(t_k)}+ \cdots + [V(t_1)+\cdots +V(t_k)]'$$ Pero las expresiones en $[\cdots]$ son polinomios simétricos en $t_i$ y como son polinomios con coeficientes en $F$ las expresiones resultantes están en $F$ . Así que dividiendo por $k$ nos da $(*)$ que se encuentra en $F$ .

  • Caso $2$ : $t$ es logarítmica sobre $F$ . Debido a la diferenciación logarítmica podemos suponer que el $u$ son mónicas e irreducibles en $t$ y distintos. Además, podemos suponer que v se ha descompuesto en fracciones parciales. Las fracciones sólo pueden ser de la forma $\dfrac f{g^j}$ , donde $\deg(f)<\deg(g)$ y $g$ es irreducible mónico. El hecho de que ningún término fuera de $F$ aparecen en la parte izquierda de $(*)$ , es decir, sólo $a$ aparece, significa que debe haber muchas cancelaciones.

    Dejemos que $t'=\dfrac{s'}s$ para algunos $s$ en $F$ . Si $f(t)$ es mónico en $F[t]$ entonces $f(t)'$ también está en $F[t]$ de un grado menos. Así, $f(t)$ no divide $f(t)'$ . En particular, todos los $\dfrac{u'}u$ términos ya están en los términos más bajos. En el $\dfrac f{g^j}$ términos en $v$ tenemos $a g^{j+1}$ contribución del denominador en $v'$ de la forma $-jf\dfrac{g'}{g^{j+1}}$ . Pero $g$ no divide $fg'$ para que no se produzca ninguna anulación. Pero no $\dfrac{u'}u$ puede anularse, ya que el $u$ son irreducibles, y ningún $\dfrac{(**)}{g^{j+1}}$ aparece en $a$ porque $a$ es miembro de $F$ . Por lo tanto, no $\dfrac f{g^j}$ término se produce en absoluto en $v$ . Pero entonces ninguno de los $u$ pueden estar fuera de $F$ ya que nada puede anularlos. (Recuerde el $u$ son distintos, mónicos e irreducibles). Así, cada una de las $u$ 's está en $F$ ya, y $v$ es un polinomio. Pero $v' = a -$ expresión en $u$ 's, así que $v'$ está en $F$ también. Así, $v = b t + c$ para algunos $b$ en $\mathrm{con}(F)$ , $c$ en $F$ por el lema 2. Entonces $$a= c_1 \frac{u_1'}{u_1} +\cdots + c_n\frac{u_n'}{u_n} + b \frac{s'}s + c'$$ es la forma deseada. Así que el caso 2 se mantiene.

  • Caso $3$ : $t$ es exponencial sobre $F$ . Así que dejemos $\dfrac {t'}t=s'$ para algunos $s$ en $F$ . Como en el caso 2, podemos suponer que todos los $u$ son mónicas, irreducibles y distintas y ponen $v$ en forma de descomposición parcial de la fracción. De hecho, el argumento es idéntico al del caso 2 hasta que intentamos concluir qué forma $v$ es. Aquí el lema 3 nos dice que $v$ es una suma finita de términos $b\cdot t^j$ donde cada coeficiente está en $F$ . Cada uno de los $u$ 's también está en $F$ con la posible excepción de que uno de ellos pueda ser $t$ . Así, cada $\dfrac {u'}u$ término es en $F$ Así que de nuevo concluimos $v'$ está en $F$ . Por el lema 3, $v$ está en $F$ . Así que si cada $u$ está en $F$ , $a$ está en la forma deseada. En caso contrario, uno de los $u$ 's, digamos $u_n$ es en realidad $t$ entonces $$a = c_1\frac{u_1'}{u_1} + \cdots + (c_n s + v)'$$ es la forma deseada. Así que el caso 3 se mantiene.


Referencias:

A D Fitt y G T Q Hoare "La integración en forma cerrada de funciones arbitrarias" , Gaceta Matemática (1993), pp 227-236.
I Kaplansky Introducción al álgebra diferencial (Hermann, 1957)
E R Kolchin Differential algebra and algebraic groups (Academic Press, 1973)
A R Magid "Conferencias sobre la teoría diferencial de Galois" (AMS, 1994)
E Marchisotto & G Zakeri "An invitation to integration in finite terms", COLLEGE MATHEMATICS JOURNAL (1994), pp 295-308.
J F Ritt Integration in finite terms (Columbia, 1948).
J F Ritt Álgebra diferencial (AMS, 1950).
M Rosenlicht "Teorema de Liouville sobre funciones con integrales elementales" PACIFIC JOURNAL OF MATHEMATICS (1968), pp 153-161.
M Rosenlicht "Integración en términos finitos" AMERICAN MATHEMATICS MONTHLY, (1972), pp 963-972.
G N Watson A treatise on the theory of Bessel functions (Cambridge, 1962).

-Matthew P Wiener

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X