31 votos

Raíces del polinomio de Legendre

Me preguntaba si las siguientes propiedades de los polinomios de Legendre son ciertas en general. Se mantienen para los diez o quince primeros polinomios.

  1. ¿Son las raíces siempre simples (es decir, multiplicidad $1$ )?

  2. Salvo en los casos de bajo grado, las raíces no pueden calcularse con exactitud, sino sólo de forma aproximada (a diferencia de los polinomios de Chebyshev).

  3. ¿Son las raíces de toda la familia de polinomios de Legendre densas en el intervalo $[0,1]$ (es decir, no es posible encontrar un subintervalo, por pequeño que sea, que no contenga al menos una raíz de un polinomio)?

Si alguien conoce un artículo/texto que demuestre algo de lo anterior, por favor que me lo haga saber. La definición de estos polinomios se puede encontrar en Wikipedia .

0 votos

@J.M.: Quizás un poco tarde pero preferiría la palabra "conocido" en la respuesta anterior tuya a la segunda pregunta. :o)

0 votos

En realidad, no. Créeme, lo he intentado (hice bastante investigación personal sobre la cuadratura gaussiana; si la hubiera, ya la he visto).

0 votos

En cualquier caso, ¿quizás alguien aquí pueda hacer más riguroso mi argumento de la secuencia de Sturm para la tercera pregunta?

23voto

Andrew Puntos 140

Para resolver la segunda cuestión, observe primero que los polinomios de Legendre son funciones Impares para el orden impar (0 es entonces una raíz del polinomio), y funciones pares para el orden par. Por lo tanto, con respecto a la solubilidad en términos de radicales, deberías ser capaz de derivar expresiones radicales (¡posiblemente complicadas!) al menos hasta $P_9(x)$ . Para utilizarlo como ejemplo, observe que

$$\frac{P_9(\sqrt{x})}{\sqrt{x}}$$

es un cuártico; por lo tanto, se puede utilizar la fórmula del cuártico para derivar expresiones explícitas para sus raíces, y entonces se pueden derivar fácilmente las raíces de $P_9(x)$ .

$P_{10}(x)$ es donde empiezan los problemas. Si echamos un vistazo al polinomio

$$P_{10}(\sqrt{x})$$

tenemos que lidiar con un quintento. Me saltaré los detalles relativamente tediosos, pero puedes comprobar que su grupo de Galois no es un grupo resoluble, y por tanto la solución no puede expresarse en términos de radicales (aunque puedes utilizar funciones theta o hipergeométricas).

Así que no hay mucha esperanza en el frente simbólico. En el numérico frente, las cosas son mucho más fáciles. La forma más hábil de obtener los valores exactos de las raíces del polinomio de Legendre es utilizar la matriz de Jacobi de mi respuesta anterior. Dado que existen algoritmos estables y eficientes (por ejemplo, el algoritmo QR o el de dividir y conquistar) para el problema propio simétrico (en LAPACK por ejemplo), y las cosas se pueden configurar de manera que sólo se devuelvan los valores propios, se tiene una buena manera de generar buenos valores aproximados de las raíces del polinomio de Legendre. (En el contexto de la cuadratura gaussiana, donde las raíces de los polinomios ortogonales juegan un papel fundamental, el esquema se denomina Algoritmo Golub-Welsch .)

Alternativamente, como mencioné en los comentarios, existen aproximaciones asintóticas para las raíces, que luego se pueden pulir con unas cuantas aplicaciones de Newton-Raphson. Una de estas aproximaciones asintóticas se debe a Francesco Tricomi. Dejando que $\xi_{n,k}$ sea el $k$ -raíz de $P_n(x)$ ordenados de forma decreciente, tenemos

$$\xi_{n,k}\approx\left(1-\frac1{8n^2}+\frac1{8n^3}\right)\cos\left(\pi\frac{4k-1}{4n+2}\right)$$

y $O(n^{-4})$ y se omiten otros términos. Otras aproximaciones asintóticas debidas a Luigi Gatteschi utilizan raíces de funciones de Bessel, pero no diré nada más sobre ellas.

0 votos

¿Tiene la referencia de la aproximación de Tricomi? No la he encontrado.

2 votos

@usuario, véase este .

1 votos

La demostración asintótica se encuentra en el artículo "Una formula asintotica per l'approssimazione degli zeri dei polinomi di Legendre", disponible en bdim.eu/item?id=BUMI_1949_3_4_3

15voto

Andrew Puntos 140

Por ahora, sólo responderé a la pregunta 1, pero puede que edite esto para abordar las demás más adelante.

Hay que tener en cuenta que correspondiente a cualquier conjunto de polinomios ortogonales, existe una matriz tridiagonal simétrica, llamada Matriz de Jacobi cuyo polinomio característico es la versión mónica (el coeficiente principal es 1) del conjunto de polinomios ortogonales considerados. Para utilizar los polinomios de Legendre como un ejemplo explícito, primero observamos que los polinomios mónicos de Legendre satisfacen la siguiente relación de recurrencia de dos términos:

$$\hat{P}_{n+1}(x)=x \hat{P}_n(x)-\frac{n^2}{4 n^2-1}\hat{P}_{n-1}(x)$$

donde $\hat{P}_n(x)=\frac{(n!)^2 2^n}{(2n)!}P_n(x)$ es el polinomio mónico de Legendre.

A partir de esto, podemos derivar una expresión explícita para la correspondiente matriz de Jacobi (aquí doy el caso de 5 por 5):

$$\begin{pmatrix}0&\frac{1}{\sqrt{3}}&0&0&0\\\frac{1}{\sqrt{3}}&0&\frac{2}{\sqrt{15}}&0&0\\0&\frac{2}{\sqrt{15}}&0&\frac{3}{\sqrt{35}}&0\\0&0&\frac{3}{\sqrt{35}}&0&\frac{4}{\sqrt{63}}\\0&0&0&\frac{4}{\sqrt{63}}&0\end{pmatrix}$$

(el patrón general es que tiene $\frac{n}{\sqrt{4 n^2-1}}$ en el $(n,n+1)$ y $(n+1,n)$ posiciones, y 0 en el resto).

Ahora observamos que $\frac{n}{\sqrt{4 n^2-1}}$ nunca puede ser 0, y luego utilizar el hecho de que si una matriz simétrica tridiagonal no tiene ceros en su sub o superdiagonal, entonces todos sus valores propios tienen multiplicidad 1. (Una prueba de este hecho se puede encontrar en Beresford Parlett's El problema de los valores propios simétricos .) Así, todas las raíces del polinomio de Legendre son raíces simples.

Una prueba más convencional de este hecho se encuentra en la página 27 de la obra de Theodore Chihara Introducción a los polinomios ortogonales . Brevemente, el argumento es que $P_n(x)$ cambia de signo al menos una vez dentro de $[-1,1]$ (y por tanto tiene al menos un cero de multiplicidad impar dentro del intervalo de soporte) ya que

$$\int_{-1}^1 P_n(u)\mathrm du=0$$

Ahora, el polinomio

$$P_n(x)\prod_{j=1}^k(x-\xi_j)$$

donde el $\xi_j$ son los ceros distintos de la multiplicidad impar dentro de $[-1,1]$ debe ser mayor o igual a cero dentro de $[-1,1]$ y, por tanto, su integral sobre $[-1,1]$ debe ser mayor que cero. Sin embargo, como

$$\int_{-1}^1 P_n(u) u^k\mathrm du=0\qquad\text{if}\qquad k < n$$

tenemos una contradicción, y por tanto todas las raíces del polinomio de Legendre son simples (y dentro del intervalo de soporte $[-1,1]$ ).

1 votos

Si puede conseguir un ejemplar del libro de Chihara, hágalo; es una forma muy buena de hacerse una idea del tema de los polinomios ortogonales.

0 votos

Golub y Welsch utilizaron QR para obtener los valores propios de la matriz de Jacobi, pero esto genera una matriz densa a partir de una matriz dispersa. ¿Conoce algún algoritmo mejor para obtener los valores propios que conserve la dispersión?

1 votos

@usuario, QR Tridiagonal sólo necesita los elementos diagonales y subdiagonales para generar los nodos de cuadratura. Estarás pensando en cómo se implementa en la mayoría de lenguajes hoy en día, donde hay que calcular toda la matriz de vectores propios aunque sólo se necesiten las primeras componentes. El código FORTRAN del artículo original de Golub-Welsch modifica los cálculos de los vectores propios para que sólo se generen las primeras componentes (y, por tanto, los pesos).

10voto

fastauntie Puntos 36

La densidad de las raíces de cualquier familia de polinomios ortogonales se deduce de este resultado:

Si $\{p_n\}$ es una familia de polinomios ortogonales con raíces en $[-1,1]$ y $N(a,b,n)$ representa el número de raíces de $p_n$ en $[\cos(b),\cos(a)]$ entonces

$$\lim_{n\to \infty} \frac{N(a,b,n)}{n} = \frac{b-a}{\pi}$$

7voto

Alex Bolotov Puntos 249

Creo que hay una prueba más sencilla de que las raíces son simples.

El polinomio de Legendre $\displaystyle P_n(x)$ satisface la ecuación diferencial

$$\displaystyle (1-x^2) y'' -2x y' + n(n+1) y = 0$$

Nótese que, escalamos los polinomios para que $\displaystyle P_n(1) = 1$ Así que si $\displaystyle \alpha$ es una raíz, entonces $\displaystyle \alpha \neq 1$ .

Supongamos que $\displaystyle \alpha$ es una raíz de multiplicidad $\displaystyle \gt 1$ .

Entonces debemos tener que $P_n(\alpha) = P_n'(\alpha) = 0$ .

La ecuación anterior implica que $P_n''(\alpha) = 0$ .

Por inducción, diferenciando la ecuación anterior podemos demostrar que

$$\displaystyle (1-x^2) y^{(k+2)'} - f_k(x) y^{(k+1)'} + g_k(x) y^{k'} = 0$$

donde $\displaystyle y^{l'}$ es el $\displaystyle l^{th}$ derivado de $\displaystyle y$

Desde $\displaystyle \alpha \neq 1$ vemos que $\displaystyle P_n^{k'}(\alpha) = 0 \ \ \forall k$ y por lo tanto la única raíz de $\displaystyle P_n(x)$ es $\displaystyle \alpha$ .

Creo que es fácil demostrar que $\displaystyle P_n(x) \neq C(x-\alpha)^n$ .

1voto

deadprogrammer Puntos 656

El Abramowitz-Stegun Handbook of Mathematical Functions afirma en la página 787 que todas las raíces son simples: http://convertit.com/Go/ConvertIt/Reference/AMS55.ASP?Res=150&Page=787

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X