Você está na página 1de 554

MÉTODOS MATEMÁTICOS

AVANZADOS PARA

CIENCIAS E INGENIERÍAS

Manuel Gadella
Luis Miguel Nieto

Departamento de Fı́sica Teórica

UNIVERSIDAD DE VALLADOLID
A Marisa y Elena.
Índice

1 LA FUNCIÓN GAMMA 25
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2 Productos infinitos. Teorema de Weierstrass . . . . . . . . . 26
1.3 La función gamma Γ(z) . . . . . . . . . . . . . . . . . . . . 33
1.3.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . 36
1.3.3 Fórmulas de Euler . . . . . . . . . . . . . . . . . . . 39
1.4 Otras funciones especiales . . . . . . . . . . . . . . . . . . . 44
1.4.1 La función beta . . . . . . . . . . . . . . . . . . . . . 44
1.4.2 La función psi . . . . . . . . . . . . . . . . . . . . . . 44
1.4.3 Funciones “incompletas” . . . . . . . . . . . . . . . . 45
1.4.4 Integrales exponenciales y otras . . . . . . . . . . . . 47
1.4.5 Integrales del seno y del coseno . . . . . . . . . . . . 48
1.4.6 Integrales de Fresnel . . . . . . . . . . . . . . . . . . 49
1.5 Función zeta de Riemann . . . . . . . . . . . . . . . . . . . 51
1.6 Integrales elı́pticas . . . . . . . . . . . . . . . . . . . . . . . 52
1.7 Series asintóticas: la fórmula de Stirling . . . . . . . . . . . 57
1.8 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

9
10 ÍNDICE

1.9 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2 TEORÍA ELEMENTAL DE DISTRIBUCIONES 71


2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.2 Espacios de funciones de prueba . . . . . . . . . . . . . . . 72
2.3 Distribuciones o funciones generalizadas . . . . . . . . . . . 74
2.3.1 Ejemplos de distribuciones . . . . . . . . . . . . . . 75
2.4 Operaciones con distribuciones . . . . . . . . . . . . . . . . 76
2.5 Definición matemática de la delta de Dirac . . . . . . . . . 77
2.6 Interpretación fı́sica de la delta de Dirac . . . . . . . . . . . 81
2.7 Propiedades fundamentales de la δ de Dirac . . . . . . . . . 83
2.8 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.9 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

3 SERIES DE FOURIER 93
3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2 Definiciones previas . . . . . . . . . . . . . . . . . . . . . . . 96
3.3 Serie de Fourier asociada a una función . . . . . . . . . . . 104
3.3.1 Obtención de la serie de Fourier mediante un proceso
de minimización . . . . . . . . . . . . . . . . . . . . 104
3.3.2 Obtención alternativa de los coeficientes de Fourier . 108
3.3.3 Coeficientes de Fourier para funciones pares e impares 108
3.3.4 Coeficientes de Fourier en forma compleja . . . . . . 111
3.3.5 Coeficientes de Fourier para un intervalo genérico [a, b]111
3.4 Convergencia de las series de Fourier . . . . . . . . . . . . . 113
3.4.1 Convergencia en media . . . . . . . . . . . . . . . . . 113
3.4.2 Convergencia puntual . . . . . . . . . . . . . . . . . 115
ÍNDICE 11

3.4.3 Convergencia uniforme . . . . . . . . . . . . . . . . . 118


3.4.4 Fenómeno de Gibbs . . . . . . . . . . . . . . . . . . 120
3.5 Derivación e integración de series de Fourier . . . . . . . . . 122
3.6 Series de Fourier en varias variables . . . . . . . . . . . . . 124
3.7 Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . 126
3.8 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
3.9 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

4 LA TRANSFORMACIÓN DE FOURIER 135


4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2 De las series a la transformación de Fourier . . . . . . . . . 136
4.3 Definición de la transformación de Fourier . . . . . . . . . . 140
4.4 El teorema de la integral de Fourier . . . . . . . . . . . . . 142
4.5 Propiedades fundamentales . . . . . . . . . . . . . . . . . . 144
4.6 Generalizaciones de la T. de Fourier . . . . . . . . . . . . . 146
4.7 La convolución . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.8 Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . 151
4.9 La transformación de Fourier como operador . . . . . . . . 152
4.10 La transformación de Fourier rápida (FFT) . . . . . . . . . 154
4.11 La transformación en “onditas” . . . . . . . . . . . . . . . . 155
4.12 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
4.13 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

5 LA TRANSFORMACIÓN DE LAPLACE 169


5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
5.2 De la transformación de Fourier a la de Laplace . . . . . . . 170
12 ÍNDICE

5.3 Principales resultados . . . . . . . . . . . . . . . . . . . . . 171


5.4 Propiedades fundamentales . . . . . . . . . . . . . . . . . . 175
5.5 La convolución . . . . . . . . . . . . . . . . . . . . . . . . . 178
5.6 Fórmula de inversión . . . . . . . . . . . . . . . . . . . . . . 179
5.7 Resolución de ecuaciones diferenciales . . . . . . . . . . . . 183
5.8 Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . 185
5.9 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
5.10 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

6 MÉTODOS ELEMENTALES DE INTEGRACIÓN 195


6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
6.2 Nociones generales . . . . . . . . . . . . . . . . . . . . . . . 197
6.3 Métodos elementales de integración . . . . . . . . . . . . . . 201
6.3.1 Ecuaciones en variables separables . . . . . . . . . . 202
6.3.2 Ecuaciones homogéneas . . . . . . . . . . . . . . . . 203
6.3.3 Ecuaciones lineales . . . . . . . . . . . . . . . . . . . 205
6.3.4 Ecuaciones de Bernouilli . . . . . . . . . . . . . . . . 206
6.3.5 Ecuaciones de Riccati . . . . . . . . . . . . . . . . . 208
6.3.6 Ecuaciones con coeficientes lineales . . . . . . . . . . 210
6.3.7 Ecuaciones de Lagrange . . . . . . . . . . . . . . . . 212
6.3.8 Ecuaciones de Clairaut . . . . . . . . . . . . . . . . . 213
6.3.9 Ecuaciones diferenciales exactas . . . . . . . . . . . . 216
6.3.10 Factores integrantes . . . . . . . . . . . . . . . . . . 220
6.3.11 Ecuaciones de primer orden en forma implı́cita . . . 223
6.3.12 Ecuaciones de segundo orden reducibles . . . . . . . 225
6.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
ÍNDICE 13

6.5 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

7 TEOREMAS DE EXISTENCIA Y DEPENDENCIA 237


7.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
7.2 Algunos resultados clásicos . . . . . . . . . . . . . . . . . . 239
7.3 Teoremas de prolongación de soluciones . . . . . . . . . . . 250
7.4 Dependencia respecto a los valores iniciales . . . . . . . . . 259
7.5 Dependencia respecto a los parámetros . . . . . . . . . . . . 266
7.6 Otros resultados sobre existencia y unicidad . . . . . . . . . 277
7.6.1 Nuevos puntos de vista . . . . . . . . . . . . . . . . 277
7.7 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 281

8 SISTEMAS Y ECUACIONES LINEALES 283


8.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
8.2 Sistemas lineales homogéneos . . . . . . . . . . . . . . . . . 284
8.3 Sistemas lineales no homogéneos . . . . . . . . . . . . . . . 289
8.4 Teorema de Jordan . . . . . . . . . . . . . . . . . . . . . . . 290
8.5 Sistemas lineales de coeficientes constantes . . . . . . . . . . 296
8.5.1 Caso homogéneo: "x! (t) = A "x(t) . . . . . . . . . . . 297
8.5.2 Caso no homogéneo: "x! (t) = A "x(t) + "b(t) . . . . . . 299
8.6 Ecuaciones lineales homogéneas de orden n . . . . . . . . . 299
8.7 Ecuación lineal no homogénea de orden n . . . . . . . . . . 304
8.8 Ecuaciones con coeficientes constantes . . . . . . . . . . . . 307
8.8.1 Caso homogéneo: b(t) = 0 . . . . . . . . . . . . . . . 308
8.8.2 Caso no homogéneo: b(t) != 0 . . . . . . . . . . . . . 310
8.8.3 Ecuaciones de Cauchy o de Euler . . . . . . . . . . . 311
14 ÍNDICE

8.9 A la búsqueda de soluciones particulares . . . . . . . . . . . 312


8.10 Reducción del orden . . . . . . . . . . . . . . . . . . . . . . 317
8.11 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
8.12 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 332

9 SISTEMAS NO LINEALES Y EC. DE PFAFF 333


9.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
9.2 Sistemas no lineales de primer orden . . . . . . . . . . . . . 334
9.3 Sistemas autónomos . . . . . . . . . . . . . . . . . . . . . . 340
9.4 Integrales primeras de un sistema . . . . . . . . . . . . . . . 342
9.4.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . 342
9.4.2 Significado geométrico . . . . . . . . . . . . . . . . . 343
9.4.3 Independencia funcional . . . . . . . . . . . . . . . . 344
9.4.4 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . 345
9.4.5 Forma canónica del sistema . . . . . . . . . . . . . . 349
9.5 Ecuaciones de Pfaff . . . . . . . . . . . . . . . . . . . . . . . 350
9.5.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . 350
9.5.2 Aplicación a las integrales primeras: método de los
multiplicadores . . . . . . . . . . . . . . . . . . . . . 351
9.6 Métodos de resolución de ec. de Pfaff . . . . . . . . . . . . . 352
9.6.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . 352
9.6.2 Casos especiales . . . . . . . . . . . . . . . . . . . . 357
9.6.3 Interpretación geométrica y fı́sica . . . . . . . . . . . 363
9.6.4 Ecuaciones de Pfaff con n variables . . . . . . . . . . 365
9.7 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
9.8 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
ÍNDICE 15

10 SOLUCIONES EN SERIE DE POTENCIAS 373


10.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
10.2 Clasificación de las singularidades . . . . . . . . . . . . . . . 374
10.3 El método de Frobenius . . . . . . . . . . . . . . . . . . . . 376
10.3.1 Resultados previos . . . . . . . . . . . . . . . . . . . 376
10.3.2 El método en sı́ . . . . . . . . . . . . . . . . . . . . . 377
10.4 Ecuación de Bessel . . . . . . . . . . . . . . . . . . . . . . . 382
10.4.1 Cálculo de la solución correspondiente a λ1 = ν . . . 384
10.4.2 Cálculo de la segunda solución linealmente indepen-
diente . . . . . . . . . . . . . . . . . . . . . . . . . . 386
10.4.3 Algunas propiedades de las funciones de Bessel . . . 391
10.5 Ecuación hipergeométrica . . . . . . . . . . . . . . . . . . . 397
10.5.1 Solución en un entorno de x = 0 . . . . . . . . . . . 398
10.5.2 Algunas propiedades de la función hipergeométrica . 402
10.5.3 Soluciones en torno de x = 1 y x = ∞ . . . . . . . . 404
10.6 Ecuación hipergeométrica confluente . . . . . . . . . . . . . 405
10.6.1 Solución correspondiente a λ = λ1 = 0 . . . . . . . . 407
10.6.2 Solución correspondiente a λ = λ2 = 1 − c . . . . . . 408
10.6.3 Algunas propiedades de interés . . . . . . . . . . . . 409
10.7 Funciones hipergeométricas generalizadas . . . . . . . . . . 410
10.8 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
10.9 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 427

11 POLINOMIOS ORTOGONALES CLÁSICOS 429


11.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
11.2 La fórmula de Rodrigues generalizada . . . . . . . . . . . . 431
16 ÍNDICE

11.3 Clasificación de los polinomios ortogonales . . . . . . . . . . 435


11.4 Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . 439
11.5 Ecuación diferencial de los polinomios . . . . . . . . . . . . 442
11.6 Raı́ces de los polinomios ortogonales . . . . . . . . . . . . . 444
11.7 Series de polinomios ortogonales . . . . . . . . . . . . . . . 445
11.8 Funciones generatrices . . . . . . . . . . . . . . . . . . . . . 448
11.9 Polinomios clásicos . . . . . . . . . . . . . . . . . . . . . . . 449
11.9.1 Polinomios de Hermite Hn (x) . . . . . . . . . . . . . 450
11.9.2 Polinomios de Laguerre Lνn (x) . . . . . . . . . . . . . 454
11.9.3 Polinomios de Legendre Pn (x) . . . . . . . . . . . . 457
11.9.4 Polinomios de Chevichev de primera especie Tn (x) . 460
11.9.5 Polinomios de Chevichev de segunda especie Un (x) . 462
11.10Armónicos esféricos . . . . . . . . . . . . . . . . . . . . . . . 464
11.11Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
11.12Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
11.13Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 480

12 COMPLEMENTOS SOBRE DISTRIBUCIONES 481


12.1 Introducción y resultados preliminares . . . . . . . . . . . . 481
12.2 Propiedades del espacio de Schwartz S . . . . . . . . . . . . 484
12.3 Distribuciones temperadas . . . . . . . . . . . . . . . . . . . 491
12.4 Derivación de distribuciones . . . . . . . . . . . . . . . . . . 504
12.5 Lı́mite de sucesiones en S × . . . . . . . . . . . . . . . . . . 508
12.6 Distribuciones en dos o más dimensiones . . . . . . . . . . . 516
12.7 Otros tipos de distribuciones . . . . . . . . . . . . . . . . . 522
12.7.1 Medidas de Radon . . . . . . . . . . . . . . . . . . . 523
ÍNDICE 17

12.7.2 Distribuciones regularizadas . . . . . . . . . . . . . . 524


12.8 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 525

13 COMPLEMENTOS SOBRE T. DE FOURIER 527


13.1 La transformación de Fourier . . . . . . . . . . . . . . . . . 527
13.1.1 Propiedades de la transformada de Fourier . . . . . 528
13.2 El teorema de Plancherel . . . . . . . . . . . . . . . . . . . 532
13.3 Transformación de Fourier de distribuciones . . . . . . . . . 538
13.4 La Convolución . . . . . . . . . . . . . . . . . . . . . . . . . 543
13.5 Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 548
Prólogo
La idea de escribir este libro surgió cuando ambos autores fuimos en-
cargados de impartir la asignatura de Métodos Matemáticos de la Fı́sica II
a finales de los años 80. Esta materia estaba fundamentalmente orientada
hacia la enseñanza de diversas técnicas para la resolución de ecuaciones
diferenciales. Aunque existen muchos buenos libros en el mercado dedi-
cados a este tema, tanto en inglés como en español, pronto vimos que
ninguno de ellos estaba adecuado a las necesidades del estudiante de Cien-
cias Fı́sicas. Junto al excelente tratamiento de algunos temas, se observaba
en la bibliografı́a al uso la ausencia de otros muy interesantes: libros que
hacen particular hincapié en el método de Frobenius, o en la resolución
de sistemas lineales, hay muchos, pero casi ninguno de ellos trata estos
temas con suficiente amplitud, junto con otros de especial relevancia para
el estudiante de disciplinas cientı́ficas o técnicas, como son por ejemplo las
ecuaciones de Pfaff (tan útiles en termodinámica).

Además de temas más o menos estándar que presentan la teorı́a de las


ecuaciones diferenciales ordinarias, hemos añadido algunos más, tanto al
comienzo como al final del libro. Al comienzo introducimos unos capı́tulos
de gran interés para todo cientı́fico, como son funciones especiales rela-
cionadas con la función Γ, series y transformadas de Fourier, transformación
de Laplace, una introducción a la noción de distribución (haciendo énfasis
en la delta de Dirac) y otra a las ecuaciones diferenciales ordinarias. Es-
tos capı́tulos son introductorios y están orientados fundamentalmemte a
las aplicaciones inmediatas en diversas asignaturas. Le siguen varios temas
de ecuaciones diferenciales ordinarias, que están enfocados fundamental-
mente hacia el apredizaje en la resolución de las mismas. Consideración
aparte merece el capı́tulo 7 dedicado a teoremas de existencia de ecuaciones
diferenciales ordinarias. En él se presentan diversos resultados rigurosos so-
bre existencia, unicidad, prolongación y estabilidad de ecuaciones diferen-

19
ciales ordinarias, resultando fácilmente extensibles a sistemas de ecuaciones
del mismo tipo. Se recomienda al lector que en principio se concentre en
comprender los resultados, dejando el estudio de las demostraciones de los
mismos para una lectura posterior más pausada. El tema dedicado a las
ecuaciones lineales y a los sistemas lineales es de capital importancia para
todo estudiante de materias cientı́ficas, y en él se usan algunos conceptos de
álgebra lineal que se suponen conocidos. Las ecuaciones no lineales se abor-
dan con un enfoque pensado para resaltar sus aplicaciones en mecánica y en
la teorı́a de ecuaciones en derivadas parciales, no en los aspectos numéricos
o computacionales. Los dos temas que siguen se dedican a la resolución de
ecuaciones mediante series de potencias, introduciendo las funciones espe-
ciales básicas de la fı́sica matemática, que son una herramienta fundamental
para todo aquel que realice un estudio profundo de disciplinas tales como
las mecánicas clásica y cuántica, el electromagnetismo, la quı́mica cuántica
o la teorı́a de estructuras, por poner sólo algunos ejemplos. El lector podrá
familiarizarse ası́ con las funciones de Bessel, las hipergeométricas y las
diversas familias de polinomios ortogonales clásicos (Hermite, Laguerre,
Legendre y Chevichev).

Al final del libro presentamos dos capı́tulos con temas complementarios,


uno sobre dstribuciones y otro sobre la transformación de Fourier. En el
primero tratamos las distribuciones de una manera mucho más general que
en el tema introductorio, definiendo las distribuciones como funcionales so-
bre el llamado espacio de Schwartz. Creemos que para una primera toma
de contacto con la teorı́a rigurosa de las distribuciones es suficiente estu-
diar las de este tipo, a menudo denominadas temperadas. Además de este
planteamiento más profundo de la teorı́a de distribuciones, ofrecemos al
lector interesado numerosos ejemplos analizados con bastante detalle. Si
bien es cierto que no estudiamos la forma más general de una distribución
con soporte real, también es cierto que muchas de las distribuciones que
aparecen en los libros básicos de fı́sica pertenecen a la categorı́a que aquı́
se estudia. El tema de la transformación de Fourier está redactado en
el espı́ritu del anteriormente comentado y tiene por objeto el de definir
y obtener las transformadas de Fourier de las distribuciones temperadas.
Estos dos últimos capı́tulos sirven para establecer sobre una base teórica
firme algunos tópicos presentados con anterioridad, y pueden omitirse en
una primera lectura.

20
Es obvio que este libro contiene material que en esencia puede conside-
rarse clásico (si bien es cierto que también se incluyen algunos comentarios
a ciertos temas de reciente publicación en revistas especializadas), que ha
sido reelaborado por los autores con el fin de adaptarlo a lo que nosotros
consideramos más adecuado para la formación y las necesidades de nues-
tros alumnos. La bibliografı́a utilizada ha sido muy amplia y hemos optado
por exponer los libros más relevantes al final de cada capı́tulo. Uno de los
pilares de la presente obra han sido los Apuntes de ecuaciones diferenciales
de Antonio Pérez-Gómez, escritos entre 1967 y 1968, y nunca publicados.

Hemos considerado oportuno incluir un número muy amplio de proble-


mas propuestos; algunos tienen como objetivo simplemente el desarrollar
la habilidad de cálculo del lector, pero otros contienen un importante tras-
fondo de aplicación en diversas disciplinas básicas. Nos ha parecido también
interesante incluir referencias biográficas de los diversos cientı́ficos que
aparecen mencionados a lo largo del texto (obviamente se trata mayorita-
riamente de matemáticos, aunque es bastante claro que hasta fecha reciente
no es fácil clasificar de manera unı́voca a un cientı́fico como matemático
o como fı́sico). En este sentido, una fuente de información valiosı́sima, y
muy recomendable para todo interesado en la historia de las matemáticas,
es la base de datos de la Universidad de St. Andrews, en Escocia The Mac-
Tutor History of Mathematics archive, accesible en la siguiente direción de
Internet: http://www-history.mcs.st-and.ac.uk/history/.

Para finalizar indicar solamente que esta obra ha sido escrita utilizando
el programa de escritura cientı́fica LATEX, habiéndose realizado la mayor
parte de las figuras con el programa de cálculo simbólico Mathematica.
Cualquier comentario o sugerencia será muy bien recibido y puede ser envia-
do a la siguiente dirección electrónica luismi@metodos.fam.cie.uva.es.

Luis Miguel Nieto y Manuel Gadella.

Valladolid, 31 de mayo del año 20001 .

1
Se da la feliz circunstancia de que éste es el Año Mundial de las Matemáticas, de
manera que sirva la publicación de este libro como nuestra modesta contribución a los
diversos actos que con este motivo se están organizando por doquier.

21
Agradecimientos
Queremos expresar nuestra sincera gratitud en primer lugar a nuestros
queridos compañeros del Departamento de Fı́sica Teórica de la Universidad
de Valladolid Mariano Santander, Mariano del Olmo, Javier Negro, José
Oscar Rosas-Ortiz, David González, Luis Enrique González, Jose Manuel
López y Alberto Gómez, ası́ como a nuestros colegas Angel Ballesteros y
Francisco José Herranz, del Departamento de Fı́sica de la Universidad de
Burgos, por su ayuda e interés durante el largo proceso de elaboración
de este libro, y también por su amistad constante y lo mucho que hemos
aprendido trabajando con ellos.

Al Profesor Antonio Pérez nuestro reconocimiento por sus enseñanzas


de las matemáticas, sin las cuales esta obra nunca hubiera sido escrita.

Mención especial merecen aquellos que han sido nuestros alumnos du-
rante estos años y con los cuales hemos ido “experimentado” la forma de
presentar de manera concreta la mayor parte del temario que compone esta
obra. Saben que nuestro deseo ha sido siempre ofrecerles una enseñanza de
calidad, que pudiera serles de utilidad en su etapa formativa en la Universi-
dad. A todos ellos nuestra gratitud y nuestra esperanza de que se sientan,
al menos en parte, copartı́cipes del libro.

En la fase final de elaboración del manuscrito hemos contado con el


apoyo de la Junta de Castilla y León a través del proyecto titulado “In-
corporación de nuevas tecnologı́as en el proceso de enseñanza y aprendizaje
cientı́ficos” (1998–99).

Por último deseamos manifestar nuestro agradecimiento al Secretariado


de Publicaciones e Intercambio Editorial de la Universidad de Valladolid
por sus indicaciones y por las facilidades prestadas para la publicación de
este libro.

23
Capı́tulo 1

LA FUNCIÓN GAMMA Y
OTRAS FUNCIONES
RELACIONADAS

1.1 Introducción

Al haberse planteado la elaboración de este libro como un manual de


Métodos Matemáticos avanzados con aplicaciones en disciplinas cientı́ficas
y técnicas, suponemos que el lector posee ya unos sólidos conocimientos
de álgebra y cálculo en una y varias variables, y en particular, que ya ha
tenido ocasión de estudiar tanto las series numéricas como las series de po-
tencias, y en concreto los desarrollos en serie de Taylor1 . Es probable que
también se haya familiarizado con las funciones de una variable compleja,
en particular con las funciones analı́ticas (es decir desarrollables en serie de
Taylor) y con las funciones enteras (aquellas que son analı́ticas en todo el
plano complejo).
En este primer tema vamos a proseguir de manera natural estas lı́neas de
trabajo abordando en primer lugar el análisis de la teorı́a de los productos
infinitos. Este estudio nos servirá de punto de partida para introducir en
la sección tercera una de las funciones especiales más utilizadas, la función
gamma Γ(z), cuyas propiedades fundamentales consideraremos en detalle
(la función gamma puede introducirse de varias maneras; nosotros opta-
1
Brook Taylor (1685–1731), matemático inglés.

25
26 CAPÍTULO 1. LA FUNCIÓN GAMMA

mos por la aquı́ indicada por ser la más completa). La función gamma
surge de manera natural al intentar extender las propiedades de los fac-
toriales a valores no naturales. Sus interesantes propiedades le hacen ser
la herramienta adecuada para describir muchas de las funciones especiales
que irán apareciendo a lo largo del temario que vamos a desarrollar. Otras
funciones relacionadas con la función gamma se introducen en la sección
cuarta. Dedicamos la sección quinta a definir la función zeta de Riemann2 ,
ζ(z). En la sección sexta se definen las integrales elı́pticas que, aunque
no guardan una relación directa con la función gamma, deberı́an resultar
familiares para todo cientı́fico o ingeniero, ya que aparecen en la resolución
de destacados problemas tanto de matemática pura como aplicada. Para fi-
nalizar, se efectúa una breve introducción a la teorı́a de las series asintóticas;
sin entrar en los detalles matemáticos delicados de la teorı́a, se pretende
al menos motivar un resultado de tanta utilidad como es la fórmula de
Stirling3 (que no es otra cosa que el desarrollo asintótico para la función
gamma).

1.2 Productos infinitos. Teorema de Weierstrass

De manera análoga a como se desarrolla la teorı́a de series, se puede cons-


truir una teorı́a de productos infinitos. Una primera aproximación intuitiva
se obtiene al considerar un polinomio cualquiera de grado n:
! "
an−1 n−1 a1 a0
pn (z) = an z n + · · · + a1 z + a0 = an z n + z + ··· + z + .
an an an
(1.2.1)
Suponemos que an != 0 y, para mayor generalidad, la variable z se toma
compleja. Si denominamos α1 , α2 , . . . , αn a las raı́ces de este polinomio
(puede haber alguna repetida; se denomina multiplicidad de una raı́z al
número de veces que aparece repetida), podremos factorizarle en la forma

2
Georg Friedrich Bernhard Riemann (1826–66), fue uno de los matemáticos más bri-
llantes del siglo XIX, realizando importantı́simas contribuciones en campos como teorı́a
de números, funciones de variable compleja, series de Fourier o geometrı́a (de hecho
sus innovadoras ideas sobre los fundamentos de la geometrı́a fueron el punto de partida
que permitió desarrollar el aparato matemático necesario para formular la teorı́a de la
relatividad general).
3
James Stirling (1692–1770), matemático escocés.
1.2. PRODUCTOS INFINITOS. TEOREMA DE WEIERSTRASS 27

siguiente:
n
#
pn (z) = an (z − α1 )(z − α2 ) · · · (z − αn ) = an (z − αk ). (1.2.2)
k=1

Parece natural intentar generalizar la expresión precedente cuando en lugar


de un polinomio tenemos una serie de potencias (es decir, cuando pasamos
al lı́mite n → ∞). En este caso, en lugar de un número finito de factores
tendremos un número infinito de ellos. Hemos de precisar ahora las sencillas
ideas que acabamos de exponer. Para ello comencemos estableciendo una
definición rigurosa de qué es lo que se entiende por un producto infinito.
Sea {a1 , a2 , a3 , . . .} una sucesión de números complejos, ninguno de los
cuales es igual a −1, es decir ak != −1, ∀k ∈ N. Consideremos el producto
de n términos de la forma
n
#
Pn = (1 + ak ) = (1 + a1 )(1 + a2 ) · · · (1 + an ). (1.2.3)
k=1

Escribimos el término general de este producto finito como (1 + ak ) porque,


como luego veremos, si el producto converge, el término general debe tender
a 1.

Definición 1: diremos que el producto Pn anteriormente definido es con-


vergente cuando n → ∞ si la sucesión Pn posee un lı́mite finito distinto de
cero (este lı́mite no nulo será precisamente el valor del producto infinito).
Lo indicaremos ası́:
n
# ∞
#
lim Pn = lim (1 + ak ) ≡ (1 + ak ). (1.2.4)
n→∞ n→∞
k=1 k=1

Cuando alguno de los ak sea igual a −1, el producto vale 0. Si sucede ésto, o
si el lı́mite (1.2.4) vale cero, diremos que el producto diverge a cero. Como
dato anecdótico, la convergencia del producto en el que ak = −(k + 1)−2
fue investigada por Wallis4 en 1655.
Consideremos a continuación unos ejemplos de productos numéricos
(más adelante consideraremos también productos en los que intervienen
funciones).
4
John Wallis (1616–1703), matemático inglés.
28 CAPÍTULO 1. LA FUNCIÓN GAMMA

Ejemplo 1: analicemos la convergencia del producto infinito


∞ $
# % # ∞ $ %
1 k−1 123
p= 1− = = ···
k k 234
k=2 k=2

Consideremos el producto hasta k = n y pasemos luego al lı́mite:


#n $ %
k−1 123 n−2 n−1 1
p = lim = lim ··· = lim = 0.
n→∞ k n→∞ 234 n−1 n n→∞ n
k=2

Hemos dicho que el producto es convergente si la sucesión del producto de


n términos tiende a un lı́mite finito distinto de cero. Como aquı́ el lı́mite
es cero, entonces el producto analizado diverge a cero5 .

Ejemplo 2: consideremos a continuación otro caso que resolveremos de


manera completamente análoga al anterior:
∞ $
# % # ∞ $ 2 % #n $ %
1 k −1 k−1 k+1
p = 1− 2 = = lim
k k2 n→∞ k k
k=2 k=2 k=2
$ %$ %$ % $ %$ %
13 24 35 n−2 n n−1 n+1
= lim ···
n→∞ 2 2 33 44 n−1 n−1 n n
1 n+1 1
= lim = .
n→∞ 2 n 2
Mediante unos sencillos cálculos (tanto que no es necesario explicarlos en
detalle) hemos demostrado que este producto infinito converge a 1/2.

Ejemplo 3: un último ejemplo, que requiere un poco más de cuidado al


simplificar antes de efectuar el paso al lı́mite, es el siguiente:
#∞ $ % # ∞ #∞ $ %
2 k2 + k − 2 k−1 k+2
p = 1− = =
k(k + 1) k(k + 1) k k+1
k=2 k=2 k=2
$ %$ %$ % $ %$ %
14 25 36 n−2 n+1 n−1 n+2
= lim ···
n→∞ 2 3 34 45 n−1 n n n+1
1 n+2 1
= lim = .
n→∞ 3 n 3
5
El lector puede haber observado que en este ejemplo el ı́ndice k del producto comienza
en 2 y no en 1. Un momento de reflexión le hará darse cuenta de que este hecho no
presenta ninguna relevancia, ya que con un sencillo cambio de ı́ndices podrı́a llevarse a
la forma estándar (1.2.4).
1.2. PRODUCTOS INFINITOS. TEOREMA DE WEIERSTRASS 29

Enunciamos ahora un resultado en el que, a la vez que se introducen algunos


conceptos nuevos, se resumen las principales propiedades de convergencia
de los productos infinitos6 .

Teorema 1: dado un producto infinito en la forma anteriormente conside-


rada (1.2.4), se verifica lo siguiente:

#
i) Si (1 + ak ) converge, entonces lim ak = 0.
k→∞
k=1

#
ii) Supongamos que |ak | < 1, ∀k ∈ N, entonces el producto (1 + ak )
k=1

&
converge si y sólo si la serie log(1 + ak ) converge (se considera la
k=1
rama principal del logaritmo. Obsérvese que |ak | < 1 garantiza que
log(1 + ak ) está bien definido).

#
iii) Diremos que el producto (1 + ak ) converge absolutamente si el pro-
k=1

#
ducto (1 + |ak |) converge. El producto convergerá absolutamente
k=1

&
si y sólo si la serie ak también converge absolutamente, es decir,
k=1

&
si |ak | converge.
k=1

iv) Si un producto infinito converge absolutamente, entonces también


converge en el sentido ordinario.

Ejercicio: como aplicación de lo que acabamos de comentar, puede estu-


diarse la convergencia de los dos productos siguientes:

# #∞
k
e(−1) /k , e1/k .
k=1 k=1
6
No vamos a probar aquı́ los teoremas 1, 2 y 3 que siguen, pues estas demostraciones
precisan de unos conocimientos de análisis complejo que no suponemos en el lector de este
libro. Además su presentación no aporta nada esencial. Remitimos al lector interesado
al tema séptimo del libro de Marsden mencionado en la bibliografı́a recomendada, que
aparece al final de este capı́tulo.
30 CAPÍTULO 1. LA FUNCIÓN GAMMA

Al igual que sucede con las series absolutamente convergentes, hay cier-
tas operaciones que es lı́cito efectuar para los productos absolutamente
convergentes, pero no para aquellos que no lo son. En particular, para los
primeros se puede cambiar el orden de los factores, ya que el resultado no se
altera (esto no es cierto para los que no son absolutamente convergentes).
Hasta ahora hemos considerado únicamente productos numéricos. A
continuación vamos a introducir los productos infinitos de funciones.

Definición 2: sean {fk (z)}k∈N funciones definidas en un conjunto B ⊂ C,


donde C es el cuerpo complejo. Diremos que el producto infinito

#
(1 + fk (z)) (1.2.5)
k=1
converge uniformemente en B si y sólo si sucede lo siguiente:

i) existe un m ∈ N tal que fk (z) != −1, para k ≥ m y ∀z ∈ B;


n
#
ii) la sucesión Pn (z) = (1 + fk (z)) converge uniformemente a la
k=m
función P (z) en B;
iii) P (z) != 0, ∀z ∈ B.

Obsérvese que el producto converge a


m−1
#
T (z) = P (z) (1 + fk (z)) .
k=1
Un resultado que puede ser de utilidad es el siguiente:

Teorema 2: si {fk (z)}k∈N son funciones analı́ticas en un abierto A ⊂ C


n
#
y la sucesión de funciones Pn (z) = (1 + fk (z)) converge uniformemente
k=1
a P (z) en todo disco cerrado contenido en A, entonces la función P (z) es
analı́tica en A.

Para terminar esta sección, vamos a enunciar un teorema debido a


Weierstrass7 que es muy importante en las aplicaciones. Aunque pueden
7
Karl Theodor Wilhelm Weierstrass (1815–97), matemático alemán que construyó
la teorı́a de los números reales y trabajó en teorı́a de funciones, influyendo de forma
destacada en el uso de métodos rigurosos y no intuitivos en matemáticas.
1.2. PRODUCTOS INFINITOS. TEOREMA DE WEIERSTRASS 31

encontarse diferentes versiones del teorema, daremos aquı́ una versión sim-
plificada que es suficiente para lo que más tarde precisaremos: la definición
de la función gamma.

Teorema 3 (de Weierstrass): sea {a1 , a2 , a3 , . . .} una sucesión (puede


ser también un conjunto finito) de números complejos distintos de cero y
tales que
&∞
1
< ∞.
|ak |2
k=1
Si g(z) es una función entera (es decir, analı́tica en todo el plano complejo)
y ' un número natural, la función f (z) definida como
∞ $
# %
z
f (z) = e g(z) "
z 1− ez/ak (1.2.6)
ak
k=1

es entera. El producto converge uniformemente en discos cerrados, tiene


ceros en a1 , a2 , a3 , . . . y tiene un cero de orden ' en z = 0, pero no posee
ningún otro cero. Recı́procamente, cualquier función entera f (z) con las
propiedades citadas puede ser escrita en la forma (1.2.6).
Los números {ak } pueden aparecer repetidos un número finito de veces
para dar cuenta de la existencia de ceros múltiples. ¿Qué sucede si f (z) es
entera y no tiene ningún cero? El teorema de Weierstrass nos dice que en
este caso f (z) = exp(g(z)), siendo g(z) una función entera.
Para finalizar este apartado creemos conveniente indicar un resultado
importante, como es la expresión de la función seno como producto infinito:
∞ '
# z ( z/k
sen πz = πz 1− e . (1.2.7)
k=−∞
k
k#=0

Para demostrar esta igualdad se utiliza el teorema de Weierstrass que acabamos de enun-
ciar. Como la función sen πz es entera y tiene ceros simples en {n ∈ Z }, siendo cierto
además que
&∞
1
2
< ∞,
n=−∞
n
n#=0

el teorema nos asegura que existe una función entera g(z), que habrá que determinar, tal
que

#
sen πz = πz eg(z) (1 − z/n) ez/n
n=−∞
n#=0
32 CAPÍTULO 1. LA FUNCIÓN GAMMA

= πz eg(z) (1 − z)ez (1 + z)e−z (1 − z/2)ez/2 (1 + z/2)e−z/2 · · ·



#
= πz eg(z) (1 − z 2 )(1 − (z/2)2 ) · · · = πz eg(z) (1 − (z/n)2 ).
n=1

Obsérvese que hemos podido reordenar los productos por existir convergencia uniforme.
Consideremos ahora los productos parciales

N
#
PN (z) = πz eg(z) (1 − (z/n)2 ) → sen πz.
n=1

De aquı́ se sigue que


) *
$ N
&
PN (z) d d 2
= log PN (z) = log z + g(z) + log(1 − (z/n) )
PN (z) dz dz n=1

&N
1 2z
= + g $ (z) + 2 − n2
.
z n=1
z

Como hay convergencia uniforme, podemos derivar término a término y tendremos


$
$ PN (z)
PN (z) → π cos πz, → π cot πz, z %= n ∈ Z .
PN (z)

Tomando el lı́mite en la expresión anteriormente obtenida para la derivada logarı́tmica de


PN (z) y usando el siguiente resultado que se demuestra en los cursos de variable compleja

1 & 2z
cot z = + , z %= nπ,
z n=1 z 2 − (nπ)2

tenemos:
$ & ∞
PN (z) 1 2z
π cot πz = lim = + g $ (z) + 2 − n2
= g $ (z) + π cot πz.
N →∞ PN (z) z n=1
z

Por tanto g $ (z) = 0, es decir g(z) = C. Para determinar el valor de esta constante
calculamos el lı́mite z → 0 de
#∞
sen πz
lim = lim eC (1 − (z/n)2 ) = eC .
z→0 πz z→0
n=1

Pero es bien sabido que este lı́mite vale 1, de manera que finalmente obtenemos

#
sen πz = πz (1 − (z/n)2 ),
n=1

y por añadidura también demostramos (1.2.7).


1.3. LA FUNCIÓN GAMMA Γ(Z) 33

1.3 La función gamma (z)

Pasamos a estudiar ahora la función gamma. Históricamente la función


Γ(z) fue definida en primer lugar por Euler como el lı́mite de un cierto
producto, del cual derivó una expresión integral. Pero para poder desa-
rrollar adecuadamente la teorı́a, es más adecuado definir esta función en
términos de un producto infinito del tipo que ha aparecido en el teorema de
Weierstrass. Otras contribuciones importantes en este campo son debidas a
Gauss8 y a Legendre (quien introdujo la notación actual, Γ(z), en 1814). Es
interesante destacar el hecho de que ha sido demostrado que esta función no
satisface ninguna ecuación diferencial con coeficientes racionales; la mayor
parte de las funciones especiales que van a aparecer en capı́tulos posteriores
sı́ verifican esta propiedad.

1.3.1 Definición

Para introducir la función gamma vamos a utilizar la función auxiliar G(z),


definida como sigue:
∞ '
z ( −z/k # ' z ( z/k
# −∞
G(z) = 1+ e = 1− e . (1.3.1)
k k
k=1 k=−1

Por el teorema de Weierstrass, esta función es entera y presenta ceros sim-


ples en los números enteros negativos.
Consideremos el producto z G(z) G(−z), utilizando el resultado (1.2.7)
tenemos lo siguiente:
+∞ , + −∞ ,
#' z ( −z/k # ' z ( −z/k
z G(z) G(−z) = z 1+ e 1+ e (1.3.2)
k k
k=1 k=−1
∞ '
z ( −z/k
∞ '
# # z ( z/m sen πz
= z 1+ e =z 1− e = .
k=−∞
k m=−∞
m π
k#=0 m#=0

8
Johann Carl Friedrich Gauss (1777–1855), matemático y fı́sico alemán, llamado en
su tiempo “el prı́ncipe de las matemáticas”. Trabajó en gran variedad de temas, tanto
puramente matemáticos como fı́sicos: fue uno de los creadores de la geometrı́a no euclı́dea,
demostró el teorema fundamental del álgebra, desarrolló la teorı́a de superficies, trabajó
en astronomı́a, en óptica y en magnetismo, y también perfeccionó la telegrafı́a.
34 CAPÍTULO 1. LA FUNCIÓN GAMMA

Definamos ahora la función H(z) = G(z − 1); tendrá ceros simples en


0, −1, −2, . . . En virtud del teorema de Weierstrass podemos escribir
∞ '
# z ( −z/k
H(z) = eg(z) z 1+ e = eg(z) z G(z),
k
k=1

donde g(z) es una función entera sin determinar por el momento. Vamos a
ver que se trata de una constante. En efecto, sabemos que el producto que
define H(z) converge uniformemente en discos cerrados, por tanto, según
el teorema 1, podemos tomar logaritmos en esa expresión, conservando
la convergencia uniforme, lo cual nos permite a su vez derivar término a
término la expresión resultante:
∞ - '
& z( z.
log H(z) = g(z) + log z + log 1 + − , (1.3.3)
k k
k=1
∞ ! "
d log H(z) ! 1 & 1 1
= g (z) + + − . (1.3.4)
dz z k+z k
k=1

Por otro lado, dado que H(z) = G(z − 1), tenemos


∞ ! $ % "
d log H(z) d log G(z − 1) d & z−1 z−1
= = log 1 + −
dz dz dz k k
k=1
∞ !
& ∞ !
& " "
1 1 1 1 1
= − = −1+ −
k+z−1 k z k+z−1 k
k=1 k=2

& ! "
1 1 1
= −1+ −
z m+z m+1
m=1
∞ !
& "
1 1 1 1 1
= −1+ − + −
z m+z m m m+1
m=1
∞ !
& " &∞ ! "
1 1 1 1 1
= −1+ − + −
z m+z m m m+1
m=1 m=1
∞ !
& "
1 1 1
= + − .
z m+z m
m=1
1.3. LA FUNCIÓN GAMMA Γ(Z) 35

De la comparación entre la última igualdad y la ecuación (1.3.4) se tiene


g ! (z) = 0, de modo que g(z) es una constante llamada la constante de
Euler9 -Mascheroni10 que denotaremos por γ. A continuación vamos a en-
contrar su expresión explı́cita y su valor numérico. De lo que acabamos de
evaluar se sigue que
G(z − 1) = H(z) = z eγ G(z). (1.3.5)
Tomando z = 1, se tiene que G(0) = eγ G(1). Pero de la definición de G(z)
en (1.3.1) se deduce que
#∞ $ %
1
G(0) = 1 y G(1) = 1+ e−1/k ,
k
k=1
por tanto, como G(0) = eγ G(1),
∞ $
# %
1
e−γ = 1+ e−1/k .
k
k=1
Consideremos el producto de n términos
#n $ % #n
1 k + 1 −1/k
Pn = 1+ e−1/k = e
k k
k=1 k=1
/ 0
23 n n+1 1 1 1
= ··· exp −1 − − − · · · −
12 n−1 n 2 3 n
1 1 1 1
= n e−(1+ 2 +···+ n ) + e−(1+ 2 +···+ n ) .
Por tanto, tomando el lı́mite tenemos11 :
' 1 1
( ' 1 1
(
e−γ = lim Pn = lim n e−(1+ 2 +···+ n ) + lim e−(1+ 2 +···+ n )
n→∞ n→∞ n→∞
/ $ %0
1 1
= lim exp ln n − 1 + + ··· +
n→∞ 2 n
/ ! $ %"0
1 1
= exp lim ln n − 1 + + · · · + ,
n→∞ 2 n
9
Leonhard Euler (1707–83), eminente matemático suizo que desarrollo gran parte de
su labor cientı́fica en Berlı́n y en San Petersburgo, en la corte de Catalina la Grande, y
que fue una figura clave de las matemáticas y de la fı́sica teórica en el siglo XVIII, siendo
el autor más prolı́fico en matemáticas de todos los tiempos.
10
Lorenzo Mascheroni (1750–1800), matemático italiano.
11
Para indicar el logaritmo natural usamos ln cuando el argumento es un número real
positivo y log en caso contrario
36 CAPÍTULO 1. LA FUNCIÓN GAMMA

ya que el último lı́mite en la primera lı́nea es cero, pues la serie armónica


&∞
1
es divergente. Ası́ pues, la constante de Euler-Mascheroni es el valor
n
n=1
del lı́mite
! "
1 1
γ = lim 1 + + · · · + − ln n = 0.5772 . . . (1.3.6)
n→∞ 2 n

Llegados a este punto estamos en condiciones de dar la definición de


la función gamma, siguiendo a Weierstrass, como la inversa de la función
z eγ z G(z):

Definición 3: se define la función gamma como el producto infinito

+ ∞ '
,−1
# z ( −z/k
Γ(z) = z e γz
1+ e . (1.3.7)
k
k=1

1.3.2 Propiedades

De la definición que acabamos de ofrecer se siguen una serie de propiedades


que pasamos a analizar:

1. Propiedades de analiticidad de la función gamma. De (1.3.7) se de-


duce que se trata de una función analı́tica en todo el plano complejo
salvo en z ∈ {0, −1, −2, . . .}, puntos en los que presenta polos sim-
ples: es por tanto una función meromorfa (analı́tica salvo en algunos
puntos en los que posee polos).

2. Resulta sumamente ilustrativo tener una imagen de como se com-


porta la función gamma. Ofrecemos dos gráficas. En la Figura 1.1
se representa el valor absoluto de la función gamma, |Γ(z)|, cuando z
toma valores en una región del plano complejo. La Figura 1.2 nos da
una información cualitativa muy útil respecto del comportamiento de
la función gamma; en ella se representan las funciones Γ(x), en trazo
contı́nuo, y 1/Γ(x), en trazo discontı́nuo, para x ∈ R.
1.3. LA FUNCIÓN GAMMA Γ(Z) 37

4 ImHzL
2
0
-2
--4
6
4 » HzL»
2
0
4
2
0
-22 ReHzL

Figura 1.1: Módulo de la función gamma, |Γ(z)|.

2
HxL
-4 -2 2 4
1ê HxL
-2

-4

Figura 1.2: Las funciones Γ(x) y 1/Γ(x).

3. La ecuación funcional. Como se verifica G(z − 1) = z eγ G(z) = H(z),


entonces

Γ(z + 1) = [(z + 1) eγ(z+1) G(z + 1)]−1 = [eγz (z + 1)eγ G(z + 1)]−1


! "−1
−1 1 γz
= [e G(z)] =
γz
z e G(z) = z Γ(z).
z
Es decir, tenemos la siguiente relación fundamental:

Γ(z + 1) = z Γ(z), z != 0, −1, −2, . . . (1.3.8)


38 CAPÍTULO 1. LA FUNCIÓN GAMMA

4. Relación de la función Γ(z) con los factoriales. Observemos que


[Γ(1)]−1 = eγ G(1) = G(0) = 1. Procediendo ahora por inducción,
a partir de (1.3.8), dado n ∈ N se verifica

Γ(n + 1) = n Γ(n) = n Γ(n − 1 + 1) = n(n − 1) Γ(n − 1) = · · ·


= n(n − 1) · · · 1 Γ(1) = n!,

es decir
Γ(n + 1) = n!, n ∈ {0, 1, 2, 3 . . .}. (1.3.9)

Nota. A veces es conveniente utilizar la notación de los semifacto-


riales, definidos de la siguiente manera:

(2n)!! := 2n(2n − 2)(2n − 4)(2n − 6) · · · 4 · 2;


(2n + 1)!! := (2n + 1)(2n − 1)(2n − 3) · · · 3 · 1.

Con esto (2n)! = (2n)!! (2n − 1)!! y (2n + 1)! = (2n + 1)!! (2n)!!.

5. Para obtener otra importante propiedad, recordemos los resultados


obtenidos en (1.3.2) y (1.3.5). Operando se llega a
sen πz
= z G(z) eγ z e−γ z G(1 − z − 1)
π
= z G(z) eγ z e−γ z (1 − z) eγ G(1 − z)
1 1
= [z eγ z G(z)][(1 − z) eγ(1−z) G(1 − z)] = .
Γ(z) Γ(1 − z)

Por lo tanto
π
Γ(z) Γ(1 − z) = . (1.3.10)
sen πz
De aquı́ se deduce que Γ(z) != 0, ∀z ∈ C.

6. De la definición (1.3.7), y tomando complejos conjugados, es trivial


la siguiente igualdad
Γ(z) = Γ(z). (1.3.11)

Otras propiedades de la función gamma se proponen como ejercicios al final


del capı́tulo.
1.3. LA FUNCIÓN GAMMA Γ(Z) 39

1.3.3 Fórmulas de Euler

Para finalizar esta sección dedicada a la función gamma, daremos dos


fórmulas debidas a Euler, que históricamente fueron anteriores a la ex-
presión como producto infinito que nos ha servido para para definirla.

A.– Fórmulas de Euler para la función gamma

Vamos a demostrar, en primer lugar, el siguiente par de igualdades:


∞ !$ % "
n! nz 1# 1 z' z (−1
Γ(z) = lim = 1+ 1+ .
n→∞ z(z + 1) · · · (z + n) z n n
n=1
(1.3.12)
Partiendo de la definición de la función gamma (1.3.7)
n '
1 (1+ 12 +···+ n
1
−ln n)z
# z ( −z/k
= z e G(z) = z lim e
γz
lim 1+ e
Γ(z) n→∞ n→∞ k
k=1
+ n '
,
(1+ 12 +···+ n
1
−ln n)z
# z ( −z/k
= z lim e 1+ e
n→∞ k
k=1
n
# ' z(
= z lim n−z 1+ (1.3.13)
n→∞ k
k=1
$ %−z #
n '
234 n z(
= z lim ··· 1+
n→∞ 123 n−1 k
k=1
+n−1 $ ,
# k + 1 %−z #
n '
z(
= z lim 1+
n→∞ k k
k=1 k=1
+$ % n $ %−z' ,
n+1 z # 1 z(
= z lim 1+ 1+
n→∞ n k k
k=1
$ %−z '
z(

# 1
= z 1+ 1+ .
k k
k=1

El paso de la primera a la segunda lı́nea es obvio, pues todos los lı́mites


existen y el producto de los lı́mites es el lı́mite del producto. Con esto
40 CAPÍTULO 1. LA FUNCIÓN GAMMA

queda probada la segunda igualdad de (1.3.12). Para demostrar la primera,


partimos de la ecuación (1.3.13):
n ' n $ %
1 −z
# z( z # k+z
= z lim n 1+ = lim z (1.3.14)
Γ(z) n→∞ k n→∞ n k
k=1 k=1

z(z + 1)(z + 2) · · · (z + n)
= lim ,
n→∞ n! nz
que es lo que pretendı́amos demostrar.

B.– Representación integral de la función gamma

Sea z ∈ C tal que su parte real es positiva, Re z > 0. Vamos a mostrar la


“verosimilitud” de la fórmula
1 ∞
Γ(z) = tz−1 e−t dt, Re z > 0. (1.3.15)
0

En algunos libros se parte de esta fórmula integral para definir la función


gamma. Se trata, sin embargo, de una definición incompleta, pues sólo es
válida en el semiplano Re z > 0. Con la definición de la función gamma
como producto infinito, que nosotros hemos tomado como punto de partida,
Γ(z) ya está definida en C. El hecho de que una función admita diferentes
definiciones es común a la mayorı́a de las funciones especiales que van a ir
apareciendo en capı́tulos posteriores.
Para probar (1.3.15) partimos de la fórmula de Euler que acabamos de
demostrar. Sea
n! nz
Fn (z) = , lim Fn (z) = Γ(z).
z(z + 1)(z + 2) · · · (z + n) n→∞

Consideremos la siguiente integral, en la que hacemos primero el cambio


de variable t = ns y luego integramos reiteradamente por partes (tomando
u = (1 − s)n y dv = sz−1 ds):
1 n $ % 1 1
t n z−1
1− t dt = n z
(1 − s)n sz−1 ds
0 n 0
) 2 1 *
z 21 n 1
n s 2
= n z
(1 − s) + (1 − s)n−1 z
s ds
z 20 z 0
1.3. LA FUNCIÓN GAMMA Γ(Z) 41
1 1
n
= n z
(1 − s)n−1 sz ds
z 0
) 21 1 *
n sz+1 22 n−1 1
= nz (1 − s)n−1 + (1 − s)n−2 sz+1 ds = · · ·
z z + 1 20 z + 1 0
1
n n−1 n−2 1 1
= n z
··· sz+n−1 ds
z z+1 z+2 z+n−1 0

n!
= nz = Fn (z).
z(z + 1)(z + 2) · · · (z + n)

De esta manera, pasando al lı́mite, resulta que


1 n$ %
t n z−1
Γ(z) = lim Fn (z) = lim 1− t dt. (1.3.16)
n→∞ n→∞ 0 n

Supongamos que pudiéramos introducir el lı́mite dentro de la integral, es


decir que pudiéramos operar de manera formal, como se hace a menudo.
Entonces tendrı́amos que:
1 ∞ /$ % 0 1 ∞
t n z−1
Γ(z) = lim 1− t dt = e−t tz−1 dt. (1.3.17)
0 n→∞ n 0

Aunque no es lı́cito proceder como hemos hecho en el último paso, un


cálculo riguroso permite llegar exactamente al mismo resultado, ya que es
posible justificar estos pasos. En efecto, consideremos, en primer lugar, la
siguiente función: )
1 si x ∈ A,
δA (x) = (1.3.18)
0 si x ∈ / A,
llamada la función caracterı́stica del conjunto A. Notemos que, por la
definición de función caracterı́stica, ésta es nula fuera del conjunto al que
representa. Por lo tanto
1 n$ % 1 ∞$ %
t n z−1 t n
1− t dt = 1− δ[0,n] (t) tz−1 dt. (1.3.19)
0 n 0 n

Consideremos ahora la integral en el término a la derecha de (1.3.17):


1 ∞
e−t tz−1 dt. (1.3.20)
0
42 CAPÍTULO 1. LA FUNCIÓN GAMMA

Si pretendemos demostrar que la función Γ(z) es igual a esta integral, debe-


mos de demostrar que converge, al menos en aquellos puntos en los que la
función gamma está bien definida. Para ver que es ası́, utilicemos el siguien-
te resultado que aparece al estudiar la integral de Riemann: si una función
continua está acotada en módulo por una función integrable, entonces es
integrable 12 .
En nuestro caso, e−t tz−1 es una función continua en t para cada valor
complejo de z. Su módulo es |e−t tz−1 | = e−t tRe(z)−1 . Esta última función
converge a cero cuando t → ∞ más rápidamente que t−1 , debido al término
exponencial. Por lo tanto, la siguiente integral es convergente
1 ∞
e−t tRe(z)−1 dt. (1.3.21)
1

Por otro lado, sea p = Re(z)−1. Si p > −1 (o lo que es lo mismo, Re z > 0),
la siguiente integral converge
1 1 1 21
1
−t Re(z)−1
1 1
1 2
p+1 2
e t dt ≤ t Re(z)−1
dt = t dt =
p
t 2 . (1.3.22)
0 0 0 p+1 0

Por tanto deducimos que la integral en (1.3.20) converge cuando Re z > 0.


Una vez que hemos encontrado cuando la integral es convergente, hemos
de probar que en este caso coincide con Γ(z). Para ello, vamos a usar el
llamado teorema de la convergencia mayorada de Lebesgue13 , que
de una manera adecuada al nivel de este libro, lo podrı́amos enunciar ası́:

Teorema 4: sea {fn (t)} una sucesión de funciones continuas o continuas a


trozos e integrables en R, convergiendo puntualmente14 hacia una función
continua o continua a trozos15 f (t). Supongamos además que existe una
función, F (t), de R a C, tal que:

i) F (t) ≥ 0, ∀t ∈ R.
12
Diremos que f (x), definida en un cierto conjunto A ⊂ R , está acotada en módulo
por F (x) en A, si F (x) ≥ 0, ∀ x ∈ A, y además |f (x)| ≤ F (x), ∀ x ∈ A.
13
Henri Léon Lebesgue (1875–1941), matemático francés que en 1901 formuló la teorı́a
de la medida definiendo después la integral que lleva su nombre y que generaliza la noción
de integral de Riemann.
14
Esto significa que para cada t ∈ R la sucesión de números complejos {fn (t)} converge
a f (t) en el sentido de la convergencia de sucesiones en el plano complejo.
15
Véase la definición precisa de este tipo de funciones en el Capı́tulo 3.
1.3. LA FUNCIÓN GAMMA Γ(Z) 43

ii) F (t) es continua a trozos e integrable.

iii) Para cada t ∈ R y para cada n ∈ N, |fn (t)| ≤ F (t).

Entonces se verifica lo siguiente:

1. La función lı́mite f (t) es integrable.

2. Podemos introducir el lı́mite dentro de la integral, es decir:


1 ∞ 1 ∞ 1 ∞
lim fn (t) dt = lim fn (t) dt = f (t) dt. (1.3.23)
n→∞ −∞ −∞ n→∞ −∞

Para aplicar este teorema en el caso que nos ocupa, escojamos:


$ %
t n
fn (t) = 1 − δ[0,n] (t) tz−1 . (1.3.24)
n

Evidentemente, fn (t) → e−t tz−1 δ[0,∞) (t), que es integrable (¿por qué?).
Además, del curso elemental de análisis matemático o cálculo, sabemos
que si t ≤ n, $ %
t n
0≤ 1− ≤ e−t . (1.3.25)
n
Por lo tanto
|fn (t)| ≤ e−t tRe(z)−1 δ[0,∞) (t). (1.3.26)
Luego, si escribimos

F (t) := e−t tRe(z)−1 δ[0,∞) (t), (1.3.27)

no es difı́cil ver que las condiciones del teorema de la convergencia mayorada


de Lebesgue se verifican con estas fn (t), f (t) y F (t). Entonces
1 n$ % 1 ∞$ %
t n z−1 t n
Γ(z) = lim 1− t dt = lim 1− δ[0,n] (t) tz−1 dt
n→∞ 0 n n→∞ −∞ n
1 ∞ 1 ∞
−t z−1
= e t δ[0,∞) (t) dt = e−t tz−1 dt. (1.3.28)
−∞ 0

Esto es justamente lo que se pretendı́a demostrar.


44 CAPÍTULO 1. LA FUNCIÓN GAMMA

1.4 Otras funciones especiales

1.4.1 La función beta

La función beta, también llamada integral de Euler de primera especie, se


define habitualmente como la integral
1 1
B(z, w) = tz−1 (1 − t)w−1 dt; Re z, Re w > 0. (1.4.1)
0

Está ı́ntimamente relacionada con la función gamma por la fórmula


Γ(z) Γ(w)
B(z, w) = = B(w, z), (1.4.2)
Γ(z + w)
cuya demostración se propone como ejercicio. Esta relación permite exten-
der la definición de la función beta a C2 .

1.4.2 La función psi

La función psi, también llamada función “digamma”, se define como la


derivada logarı́tmica de la función gamma:
d Γ! (z)
ψ(z) = [log Γ(z)] = . (1.4.3)
dz Γ(z)
Su comportamiento cualitativo para valores reales de z se muestra en la
Figura 1.3, y en la Figura 1.4 se representan los valores de su módulo.

-4 -2 2 4

-2

-4

Figura 1.3: La función ψ(x).


1.4. OTRAS FUNCIONES ESPECIALES 45

Algunas expresiones interesantes que involucran esta función se propo-


nen como problemas. Obsérvese que al tomar complejos conjugados

ψ(z) = ψ(z).

ImHzL
4
3
2
1
0

» HzL» 4
2
0
-2
0
2
4
ReHzL

Figura 1.4: La función |ψ(z)|.

1.4.3 Funciones “incompletas”

Las funciones beta y gamma incompletas presentan aplicaciones en teorı́a


de probabilidades y estadı́stica. La función gamma incompleta se define
como la integral
1 x
γ(a, x) = ta−1 e−t dt, Re a > 0. (1.4.4)
0

Su complementaria es
1 ∞
Γ(a, x) = Γ(a) − γ(a, x) = ta−1 e−t dt. (1.4.5)
x

A veces se usa también la función


x−a
γ ∗ (a, x) = γ(a, x),
Γ(a)
que presenta la ventaja de ser una función analı́tica univaluada tanto en a
como en x.
46 CAPÍTULO 1. LA FUNCIÓN GAMMA

Algunas de las propiedades de estas funciones son las siguientes:

γ ∗ (−n, x) = xn , (1.4.6)
1 x
3 4 2 √
γ 1/2, x2 = 2 e−t dt ≡ π erf (x), (1.4.7)
0
1 ∞
3 4 2 √
Γ 1/2, x 2
= 2 e−t dt ≡ π erfc (x), (1.4.8)
x

donde erf (x) es la función error, definida justamente en (1.4.7), y usada


en el estudio de la probabilidad gaussiana, en la teorı́a de errores de obser-
vación y en los estudios sobre la conducción del calor, entre otros; erfc (x)
es su función complementaria. Sus gráficas, junto con la de la gaussiana
2
e−x , pueden verse en la Figura 1.5.

2
erfHxL
1
erfcHxL

gaussiana
-3 -2 -1 1 2 3

-1
Figura 1.5: La función error, su complemen-
2
taria y la gaussiana e−x .

La función beta incompleta guarda relación con la distribución estadı́s-


tica de Student16 :
1 x
1
Ix (a, b) = ta−1 (1 − t)b−1 dt, (0 ≤ x ≤ 1),
B(a, b) 0

y verifica Ix (a, b) = 1 − I1−x (b, a).


16
Este es el pseudónimo cientı́fico del estadı́stico inglés William Sealy Gossett (1876–
1937), que trabajó como quı́mico para la compañı́a cervecera Guinness en Dublı́n durante
la mayor parte de su vida. Inventó y estudió las propiedades del test t para manejar
pequeñas muestras estadı́sticas en relación con el control de calidad de la cerveza.
1.4. OTRAS FUNCIONES ESPECIALES 47

1.4.4 Integrales exponenciales y otras

Habitualmente se define la función integral exponencial como


1 ∞
e−t
E1 (x) = dt ≡ Γ(0, x), x > 0. (1.4.9)
x t

Una generalización es
1 ∞
e−x t
En (x) = dt, n = 0, 1, 2, . . . , x > 0. (1.4.10)
1 tn

Véanse las gráficas de algunas de estas funciones en la Figura 1.6. La


restricción a valores de x > 0 puede evitarse cuando se consideran las
expresiones de estas funciones como desarrollos en serie (algo similar a lo
que ocurre con la función gamma, como ya vimos).

E1 HxL

E2 HxL
0.5 1 1.5
EiHxL

-5

Figura 1.6: Algunas integrales exponenciales.

Una función relacionada con las anteriores y que aparece con frecuencia
en problemas de astrofı́sica cuando se trabaja con un gas que verifica la
distribución de Maxwell17 -Boltzmann18 es
1 ∞ −t 1 x t
e e
Ei (x) = −V P dt = V P dt, x > 0, (1.4.11)
−x t −∞ t

17
James Clerk Maxwell (1831–79), gran fı́sico y matemático escocés, considerado el
fundador del Electromagnetismo.
18
Ludwig Eduard Boltzmann (1844–1906), fı́sico austrı́aco que aplicó los métodos es-
tadı́sticos a la teorı́a de los gases.
48 CAPÍTULO 1. LA FUNCIÓN GAMMA

donde “V P ” indica el valor principal de Cauchy19 de la integral, es decir


1 c !1 b−$ 1 c "
VP f (x) dx = lim f (x) dx + f (x) dx ,
a $→0 a b+$
siendo b la única singularidad de f (x) en el intervalo [a, c].
Obsérvese que
En (z) = z n−1 Γ(1 − n, z), E1 (x) = −Ei (−x).

La función integral del logaritmo fue introducida por Euler y es una


función muy importante en la teorı́a de números:
1 x
dt
li (x) = = Ei (ln x), x > 1. (1.4.12)
0 ln t

1.4.5 Integrales del seno y del coseno

Estas funciones se pueden definir de la siguiente manera:


1 z
sen t π
Si (z) = dt; si (z) = Si (z) − ; |arg z| < π; (1.4.13)
0 t 2
1 ∞
cos t
Ci (z) = − dt ≡ ci (z), |arg z| < π. (1.4.14)
z t
También se acostumbra a introducirlas mediante los correspondientes de-
sarrollos en serie que se deducen de las expresiones anteriores. Se muestra
una gráfica de las funciones y = Si (x) e y = Ci (x) en la Figura 1.7.

1
CiHxL
-14 -7 7 14
SiHxL
-1

-2
Figura 1.7: Las funciones y = Si (x) e y = Ci (x).
19
Augustin-Louis Cauchy (1789–1857), matemático francés que, como muchos de sus
contemporáneos, trabajó también en diversos problemas de fı́sica teórica.
1.4. OTRAS FUNCIONES ESPECIALES 49

1.4.6 Integrales de Fresnel

Las integrales de Fresnel20 aparecen al estudiar la teorı́a de la difracción en


óptica
1 x 'π ( 1 x 'π (
S (x) = sen t2 dt, C (x) = cos t2 dt. (1.4.15)
0 2 0 2

Al igual que sucede con las integrales del seno y del coseno, pueden hallarse
desarrollos en serie para estas integrales de Fresnel, cuyas gráficas aparecen
representadas en la Figura 1.8.

0.75
0.5
0.25
CHxL
-4 -2 2 4
-0.25 SHxL

-0.5
-0.75

Figura 1.8: Las funciones y = S (x) e y = C (x).

Cuando se realiza una representación gráfica en la que se toma como


variable en el eje de ordenadas la función S (x) y como variable en el eje
de abscisas la función C (x), siendo por tanto x el parámetro que servirá
para describir el objeto resultante, se obtiene una interesante curva llamada
espiral de Cornu 21 o clotoide. La espiral de Cornu posee una interesante
propiedad geométrica: su curvatura es proporcional a la longitud de arco
medida desde el origen de coordenadas. Aunque en realidad fue Euler el
primero en mencionar la existencia de la clotoide en uno de sus trabajos
(1744), sin embargo fue a partir de los estudios de A. Cornu (1879) cuando
se empezó a usar ampliamente en cálculos relacionados con difracción de la
20
Augustin-Jean Fresnel (1788–1827), fı́sico e ingeniero francés, que fue uno de los
creadores de la teorı́a ondulatoria de la luz y uno de los redescubridores de los fenómenos
de interferencia y polarización de la luz.
21
Alfred Cornu (1841–1902), profesor de fı́sica experimental en la Escuela Politécnica
de Parı́s.
50 CAPÍTULO 1. LA FUNCIÓN GAMMA

luz (la llamada difracción de Fresnel, que es más realista que la de Fraun-
hofer22 ). Unas interesantes representaciones de estas espirales pueden verse
en las Figuras 1.9 a 1.11.

SHtL

0.6

0.4

0.2

CHtL
-0.75 -0.25 0.25 0.75

-0.2

-0.4

-0.6

Figura 1.9: La espiral de Cornu en el plano.

CHtL 0.6
0.4
0.2
0

0.6

SHtL0.4

0.2

0
0
0.25
0.5
tê5 0.75
1

Figura 1.10: La espiral de Cornu en el espacio.

22
Joseph von Fraunhofer (1787–1826), fı́sico alemán que descubrió las lı́neas de ab-
sorción atómica en el espectro solar.
1.5. FUNCIÓN ZETA DE RIEMANN 51

CHtL

SHtL

tê5

Figura 1.11: La espiral de Cornu en el espacio y


sus proyecciones sobre los planos coordenados.

1.5 Función zeta de Riemann

La función ζ(z) de Riemann se define como la serie



& 1
ζ(z) = , Re z > 1, (1.5.1)
nz
n=1

que es uniformemente convergente en todo el dominio en el que Re z > 1,


donde la función es analı́tica. Además esta definición puede extenderse al
plano complejo por prolongación analı́tica, siendo regular para todo valor
de z, excepto en z = 1, donde presenta un polo simple cuyo residuo es
Res {ζ(z), z = 1} = 1.
Esta función era conocida ya por Euler (1737), pero sus propiedades
más interesantes fueron demostradas por Riemann (1859), quien la estudió
en profundidad en su trabajo sobre los números primos. Es una función
de gran importancia en la teorı́a de los números primos, ası́ como en la
teorı́a de la función gamma y de otras funciones afines. Aparece además
al resolver ciertas integrales relevantes en problemas de Fı́sica, ası́ como al
estudiar algunos problemas de teorı́a cuántica de campos (en concreto de la
llamada teorı́a de cuerdas, que tan popular ha sido en las últimas décadas
del pasado siglo XX).
52 CAPÍTULO 1. LA FUNCIÓN GAMMA

Una fórmula muy interesante, que establece la conexión de esta función


con los números primos, es la siguiente

# $ %
1 1
= 1− z . (1.5.2)
ζ(z) p
p∈ primos

La función zeta se relaciona con la función gamma mediante las fórmulas

2z−1 π z ζ(1 − z) πz
ζ(z) = πz = 2 π
z z−1
Γ(1 − z) ζ(1 − z) sen . (1.5.3)
Γ(z) cos 2 2

Para finalizar esta sección, queremos hacer unos comentarios adicionales


sobre esta curiosa función. La función ζ(z) tiene ceros en z = −2, −4, −6, . . .
Riemann conjeturó que todos los demás ceros de ζ(z) están en la recta
Re z = 1/2. Esta hipótesis aún no ha sido probada, si bien Hardy23 de-
mostró que, en efecto, ζ(z) tiene infinitos ceros en esa lı́nea. Después que el
famoso último teorema de Fermat24 fuera probado por Wiles25 en 1994 u-
sando potentı́simas herramientas matemáticas recientemente desarrolladas,
la demostración de la hipótesis de Riemann es uno de los pocos problemas
clásicos de las matemáticas que aún siguen abiertos, y cuya prueba defini-
tiva tendrı́a importantes consecuencias en la teorı́a de los números primos.
Algunos valores “sorprendentes” de la función zeta son:

1 1
ζ(0) = − , ζ(−1) = − , ζ(−2n) = 0, n = 1, 2, . . .
2 12

1.6 Integrales elı́pticas

Las integrales elı́pticas aparecen en la resolución de multitud de problemas


fı́sicos, de astronomı́a y de matemáticas (en concreto al intentar calcular
23
Godfrey Harold Hardy (1877–1947) fue un destacado matemático inglés.
24
Pierre de Fermat (1601–65), matemático francés. El último teorema de Fermat tiene
una curiosa historia que puede leerse detalladamente en el libro de Singh mencionado en
la bibliografı́a. Fermat lo enunció, sin demostrarlo, escribiéndolo como un comentario en
el margen de uno de sus libros, la famosa Aritmética del matemático griego Diofanto de
Alejandrı́a (approx. 200-284 A.D.). El teorema dice que la ecuación xn + y n = z n no
posee soluciones enteras en z, y, z cuando n ∈ N es mayor que 2.
25
Andrew John Wiles (1953–), matemático inglés.
1.6. INTEGRALES ELÍPTICAS 53

la longitud de una elipse, de ahı́ su nombre). Aparecieron ya en traba-


jos de los Bernoulli26 , Euler y otros, pero los trabajos decisivos se deben
a Legendre27 . Trabajos posteriores de Abel28 , Jacobi29 y Weierstrass en-
riquecieron enormemente este campo de las matemáticas, llevando a definir
las funciones elı́pticas de Jacobi y de Weierstrass y las funciones ϑ, ninguna
de las cuales estudiaremos aquı́30 .
Vamos a considerar un sencillo ejemplo en el que aparecen las integrales
elı́pticas: el péndulo simple representado en la Figura 1.12 (idealizado con
la suposición de que no hay rozamiento).

q
L

Figura 1.12: El péndulo simple.

Es bien sabido que se trata de un sistema “conservativo”, de manera


que la energı́a E es una constante del movimiento. Podemos evaluar esta
26
Nombre de una gran familia de matemáticos (hay al menos ocho que realizaron
contribuciones a las matemáticas) originaria de Amberes, que en el siglo XVII se trasladó
a Suiza.
27
Adrien-Marie Legendre (1752–1833), matemático francés que realizó importantes
contribuciones a la teorı́a de números y a la teorı́a de funciones elı́pticas.
28
Niels Henrik Abel (1802–29), brillante matemático noruego que asentó el análisis
matemático sobre bases firmes, trabajando en teorı́a de funciones elı́pticas y demostrando,
entre otos resultados, la imposibilidad de resolver la ecuación general de quinto grado
mediante raı́ces.
29
Carl Gustav Jacob Jacobi (1804–51), matemático alemán de gran fama que desa-
rrolló la teorı́a de funciones elı́pticas y que también trabajó en problemas de mecánica
(ecuación de Hamilton-Jacobi). El determinante “jacobiano” de una transformación lleva
ese nombre en su honor.
30
Se remite al lector interesado al libro clásico de Whittaker y Watson que se indica
en la bibliografı́a.
54 CAPÍTULO 1. LA FUNCIÓN GAMMA

magnitud, calculando primero las energı́as cinética T y potencial V ; elegi-


mos como referencia de potencial, V = 0, la posición más baja que puede
ocupar el péndulo, correspondiente a θ = 0:
1 m
T = m v2 = (Lθ̇)2 ; (1.6.1)
2 2
V = mgh = mg(L − L cos θ); (1.6.2)
mL2 2
E =T +V = θ̇ − mgL cos θ + mgL. (1.6.3)
2
Habrá un valor máximo de θ, llamémosle θm , que es el que corresponde
a la altura máxima alcanzada (estrictamente hablando diremos que es la
altura máxima a la derecha de la figura, pues existe una posición simétrica
de igual altura pero valor −θm ). Cuando se alcanza esa posición se tiene
θ̇m = 0. Como la energı́a se conserva, en ese punto se verifica
E = −mgL cos θm + mgL,
por tanto, usando esta ecuación y (1.6.3), se tiene
mL2 2
θ̇ − mgL cos θ + mgL = −mgL cos θm + mgL,
2
es decir
5
L 2 2g 6
θ̇ = g(cos θ − cos θm ), θ̇ = ± cos θ − cos θm . (1.6.4)
2 L
Al extraer la raı́z hemos de tener en cuenta los dos signos; el signo (+) vale
cuando en la Figura 1.12 el movimiento es de izquierda a derecha y el signo
(−) cuando el movimiento es de derecha a izquierda.
Consideremos el intervalo de tiempo que transcurre para pasar de la
posición de V = 0 a la posición más elevada (en la parte derecha del
dt > 0 , por
dibujo); en ese intervalo la velocidad angular es positiva: θ̇ = dθ
lo cual tomamos el signo (+) en (1.6.4):
5
dθ 2g 6
= cos θ − cos θm .
dt L
Integrando en ese intervalo temporal, que obviamente es un cuarto del
perı́odo del movimiento τ , tendremos:
5 1 θm 1 θm
2g τ dθ dθ
= √ = 6
L 4 0 cos θ − cos θm 0 (1 − cos θm ) − (1 − cos θ)
1.6. INTEGRALES ELÍPTICAS 55

1 θm

= 7 .
0 2 sen2 θm
2 − 2 sen2 θ
2

Haciendo el cambio de variable


$ % $ %
θ θm dθ θ θm
sen = sen sen u, cos = sen cos u du,
2 2 2 2 2
llegamos a
8 1 3 4
L π/2 2 sen θ2m cos u du 1
τ = 4 73 4 7 3 4
2g 0 2 sen2 θ2m (1 − sen2 u) 1 − sen2 θ2m sen2 u
8 1 π/2
L du
= 4 7 3 4 . (1.6.5)
g 0 1 − sen2 θm
sen2 u
2

Esta integral no se puede resolver en términos de funciones elementales.


Por ello se introducen nuevas funciones: las integrales elı́pticas.

Definición 4: se define la integral elı́ptica de primera especie como


1 ϕ

F (ϕ\α) = √ , (1.6.6)
0 1 − sen2 α sen2 θ
donde α es el ángulo modular. O bien, haciendo el cambio t = sen θ y
m = sen2 α,
1 x
dt
F (x|m) = 6 , 0 ≤ m ≤ 1. (1.6.7)
0 (1 − t2 )(1 − m t2 )

La variable m se denomina el “parámetro” de la integral elı́ptica. Para


ϕ = π/2 ó x = 1 tenemos la integral elı́ptica completa de primera especie:
1 π/2 1 1
K(m) = (1−m sen2 θ)−1/2 dθ = [(1−t2 )(1−m t2 )]−1/2 dt. (1.6.8)
0 0

Definición 5: se define la integral elı́ptica de segunda especie como


1 ϕ6
E(ϕ\α) = 1 − sen2 α sen2 θ dθ, (1.6.9)
0
56 CAPÍTULO 1. LA FUNCIÓN GAMMA

o bien 1 5
1 − m t2
x
E(x|m) = dt, 0 ≤ m ≤ 1. (1.6.10)
0 1 − t2
Para ϕ = π/2 ó x = 1 tenemos la integral elı́ptica completa de segunda
especie:
1 π/2 6 1 15
1 − m t2
E(m) = 1 − m sen θ dθ =
2 dt. (1.6.11)
0 0 1 − t2

Pasemos a analizar con más detalle las integrales completas. En el rango


0 ≤ m < 1 pueden evaluarse estas integrales y se tiene para la de primera
especie
1 π/2 1 π/2 &∞
dθ (2n − 1)!! n
K(m) = √ = dθ m sen2n θ.
0 1 − m sen θ
2
0 (2n)!!
n=0

Esta serie converge uniformemente y puede integrarse término a término:


) $ %2 $ % $ % *
π 1 1·3 2 2 1·3·5 2 3
K(m) = 1+ m+ m + m + ··· .
2 2 2·4 2·4·6
(1.6.12)
Procediendo de modo análogo se obtiene
) $ %2 $ % $ % *
π 1 m 1 · 3 2 m2 1 · 3 · 5 2 m3
E(m) = 1− − − − ··· .
2 2 1 2·4 3 2·4·6 5
(1.6.13)
La demostración de estos dos resultados se propone como problema. En
la Figura 1.13 se puede ver el comportamiento de las integrales elı́pticas
completas K(m) y E(m).

3
KHmL
2
EHmL
1

0.2 0.4 0.6 0.8 1


Figura 1.13: Integrales elı́pticas completas
K(m) y E(m).
1.7. SERIES ASINTÓTICAS: LA FÓRMULA DE STIRLING 57

Volviendo a la ecuación que nos daba el perı́odo del péndulo simple


(1.6.5) y comparando con la definición de la integral elı́ptica completa de
primera especie, vemos que el perı́odo del movimiento será
8
L
τ =4 K(sen2 θm /2). (1.6.14)
g

Si la amplitud de la oscilación es pequeña, es decir si θm ≈ 0, entonces en


el desarrollo en serie (1.6.12) podemos tomar sólo el primer término ya que
los otros son despreciables, y se obtiene el resultado bien conocido
8
L
τ = 2π , (1.6.15)
g

válido, no lo olvidemos, en la aproximación de pequeñas oscilaciones en


torno a la posición de equilibrio.
Para finalizar, conviene indicar que existe una tercera integral elı́ptica
de tercera especie, cuya forma es más complicada que las que acabamos de
ver, y que no consideraremos aquı́.

1.7 Series asintóticas: la fórmula de Stirling

Regresando de nuevo al estudio de la función que ha sido el centro de


este capı́tulo, conviene saber que en determinadas circunstancias de interés
resulta muy importante tener algún tipo de información sobre el compor-
tamiento de la función Γ(z) para valores muy grandes de z. Por suerte, es
posible aproximar el valor de Γ(z) en estos casos con gran precisión y con
muy poco esfuerzo, usando una fórmula clásica debida a Stirling (1730).
Existen diversas demostraciones de este resultado: unas utilizan el cálculo
de residuos y otras diversos métodos desarrollados en el estudio de las se-
ries asintóticas (métodos de la fase estacionaria, de Laplace31 y del punto
de silla). Nos limitaremos aquı́ a dar el resultado sin demostrarlo, pero
antes vamos a definir qué es lo que se entiende por serie asintótica (para
más información sobre las series asintóticas, véase el libro de Erdélyi sobre
este tema citado en la bibliografı́a).
31
Pierre-Simon de Laplace (1749–1827), destacado matemático francés que trabajó en
mecánica celeste, en teorı́a de probabilidades y aplicaciones de las ecuaciones diferenciales
a diversos campos de las ciencias fı́sicas.
58 CAPÍTULO 1. LA FUNCIÓN GAMMA

Definición 6: sea f (z) una función de variable compleja. Consideremos


la serie
&∞
a1 a2 a3 an
a0 + + 2 + 3 + ··· = . (1.7.1)
z z z zn
n=0

Siguiendo la definición de Poincaré32 , diremos que se trata de una serie


asintótica para f (z), y escribiremos

& an
f (z) ∼ , (1.7.2)
zn
n=0

si existe un entero positivo M tal que


9 M
:
& an
lim z M
f (z) − = 0, (1.7.3)
|z|→∞ zn
n=0

aún cuando pueda suceder que


9 M
:
& an
lim z M
f (z) − = ∞, para x fijo. (1.7.4)
M →∞ zn
n=0

La teorı́a de las series asintóticas esta bien establecida desde el punto de


vista matemático y resultan muy útiles para determinar el valor numérico
de funciones para grandes valores de la variable independiente.
En la práctica, una serie asintótica puede diverger; sin embargo se ob-
tienen buenas aproximaciones tomando la suma de los términos justo hasta
que éstos empiezan a crecer.
32
Jules Henri Poincaré (1853–1912), matemático francés considerado por algunos como
la última persona que tuvo un conocimiento global de toda la matemática y de sus apli-
caciones. Catedrático de fı́sica matemática en la Sorbona, en el campo de la matemática
aplicada abordó problemas de óptica, electricidad, telegrafı́a, capilaridad, elasticidad,
termodinámica, teorı́a del potencial, teorı́a cuántica, relatividad especial (es uno de los
que formuló esta teorı́a, junto con A. Einstein y H.A. Lorentz) y mecánica celeste (estu-
diando en profundidad el problema de los tres cuerpos). Pero también realizó desarrollos
importantes en matemática pura, como por ejemplo sus trabajos sobre funciones auto-
morfas y sus ideas originales sobre lo que con posterioridad se denominó topologı́a. En
sus trabajos sobre órbitas planetarias, Poincaré fue el primero en considerar la posibili-
dad de la aparición del caos en sistemas deterministas (un campo que se ha desarrollado
con gran fuerza desde 1963).
1.7. SERIES ASINTÓTICAS: LA FÓRMULA DE STIRLING 59

Ejemplo 4: consideremos la siguiente integral


1 ∞ 1 ∞ $ %
t2 t4 t6
e−x t cos t dt = e−x t 1 − + − + · · · dt
0 0 2! 4! 6!
1 1 1 1 x
=− 3 + 5 − 7 + ··· = 2 .
x x x x x +1
Este desarrollo es válido para x > 0 (de hecho, como se verá en un capı́tulo
posterior, la integral que hemos hecho no es más que una transformada de
Laplace). Observemos que al hacer la integral hemos obtenido una serie
asintótica (serie de potencias negativas de x) que, en este caso, hemos
podido sumar.

Ejemplo 5: usando la misma idea, evaluemos la siguiente integral


1 ∞ −x t 1 ∞
e 1 1! 2! 3!
dt = e−x t (1 − t + t2 − t3 + · · ·) dt = − 2 + 3 − 4 + · · ·
0 1+t 0 x x x x
La diferencia respecto del caso anterior estriba en que la serie que acabamos
de obtener diverge ∀x ∈ R, pero aún ası́, tiene sentido como serie asintótica.

El resultado que más nos interesa es la fórmula asintótica de Stirling


para la función gamma, que ofrecemos a continuación:

Proposición: se puede probar que


/ 0
√ z −z 1 1 139
Γ(z + 1) ∼ 2 π z z e 1+ + − + · · · , (1.7.5)
12 z 288 z 2 51840 z 3
o bien
5 / 0
2 π z −z 1 1 139
Γ(z) ∼ z e 1+ + − + ··· . (1.7.6)
z 12 z 288 z 2 51840 z 3
Estas expresiones son válidas para valores grandes de |z| cuyo argumento
se encuentre en el intervalo −π < arg z < π. En muchas ocasiones basta
tomar el primer término de la serie asintótica.
Para finalizar, una observación: a pesar de la semejanza existente en-
tre las series asintóticas y las series de Laurent33 (que el lector puede
conocer de sus estudios de teorı́a de funciones de variable compleja), no
deben confundirse, pues son objetos matemáticos completamente diferentes
(recuérdese que la serie asintótica puede ser incluso divergente).
33
Pierre-Alphonse Laurent (1813–54), ingeniero y matemático francés.
60 CAPÍTULO 1. LA FUNCIÓN GAMMA

1.8 Problemas
1. Evalúense los siguientes productos:
#∞ $ % #∞ $ % ∞ $
# %
1 2 1
a) 1+ 2 , b) 1− , c) 1− 2 ,
n=2
n −1 n=2
n(n + 1) n=2
n

∞ $
# % ∞ $
# % ∞ $
# %
2 1 (−1)n
d) 1− 3 , e) 1+ n , f) 1+ .
n=2
n +1 n=2
2 −2 n=2
n

2. Encuéntrense los valores de z para los cuales convergen absolutamente los


productos
∞ '
# ( #∞
n sen (z/n)
a) (1 + z) 1 + z2 ; b) .
n=1 n=1
z/n

3. Calcúlese el producto
∞ $
# %
n1/111
1+ .
n=2
ln n

4. Demuéstrese que

& ∞
1 e & (−1)n
= , z != −1, −2, . . .
n=1
Γ(z + n) Γ(z) n=0 n!(z + n)

5. Evalúese el producto
#∞
n(a + b + n)
.
n=1
(a + n)(b + n)

6. Pruébese que
∞ ' ∞ $ %
# z ( z # z2
sen z = z 1− e nπ = z 1− ,
n=−∞
nπ n=1
(nπ)2
n#=0

usando el hecho de que



1 & 2z
cot z = + , z != nπ.
z n=1 z − (nπ)2
2

7. Pruébese la fórmula de Wallis (1655):


π 2 2 4 4 6 6 8 8
= ···
2 1 3 3 5 5 7 7 9
1.8. PROBLEMAS 61

8. Evalúese Γ(z)Γ(−z) en términos de funciones trigonométricas.


9. Siendo a = e2πi/n , demuéstrese que
' x (' x (' x( −1
x 1− n 1− n 1 − n ··· = .
1 2 3 Γ(−x1/n )Γ(−ax1/n ) · · · Γ(−an−1 x1/n )

10. Demuéstrese la fórmula de Gauss: (1655):


$ % $ % $ %
1 2 n−1 n−1 1
Γ(z)Γ z + Γ z+ ···Γ z + = (2π) 2 n 2 −nz Γ(nz).
n n n
Para n = 2 tenemos la llamada “fórmula de duplicación de Legendre”.
(1655):
√ √
11. Demuéstrese que Γ(1/2) = π y que Γ(n + 1/2) = (2n − 1)!! 2−n π.
12. Hállese el residuo de Γ(z) en z = 0, −1, −2, . . .
13. Evalúese 1
Γ(z) dz .
|z|=1/2

14. Pruébese que


∞ $
# %
x eγx Γ(z + 1)
1− ex/n = .
n=1
z+n Γ(z − x + 1)

15. Evalúese 1 π/2


senm x cosn x dx .
0
Demuéstrese que B(p, q) = Γ(p)Γ(q)/Γ(p + q).
16. Verifı́quense las siguientes igualdades
q
a) B(p, q) = B(p + 1, q) + B(p, q + 1); b) B(p, q + 1) = B(p, q);
p+q

1 · 2···n
c) B(p, n + 1) = ; d) Γ(z) = lim nz B(z, n).
p(p + 1) · · · (p + n) n→∞

17. En el recinto determinado por las condiciones x ≥ 0, y ≥ 0, xm + y n ≤ 1


(siendo m y n números enteros positivos), calcúlese la integral
1 1
xp y q dx dy .

18. Pruébese que el momento de inercia respecto del eje z de un elipsoide ho-
mogéneo de densidad unidad y semiejes a, b, c es
4 2
(a + b2 )πa b c .
15
62 CAPÍTULO 1. LA FUNCIÓN GAMMA

19. Pruébese que el área de la hipocicloide x2/3 + y 2/3 = l2/3 es 3πl2 /8.
20. Evalúese |Γ(3/2 + ix)| , x ∈ R.
21. Sea Ψ("r ) la función de onda mecanocuántica de una partı́cula que ha sufrido
un proceso de difusión (“scattering”) por un potencial de Coulomb34 . En el
origen, la función de onda es

Ψ(0) = e−πβ/2 Γ(1 + iβ), β = Z1 Z2 q 2 /!v.

Pruébese que
2πβ
Ψ(0)Ψ∗ (0) = .
e2πβ − 1
22. Una partı́cula de masa m, que se mueve en un pozo de potencial simétrico
de la forma V (x) = A|x|n , tiene una energı́a total E = 12 m(dx/dt)2 + V (x).
Despejando dx/dt e integrando, se encuentra que el perı́odo del movimiento
es 1 xm
√ dx
τ = 2 2m √ ,
0 E − Axn
donde xm es el “punto de retroceso”, que verifica V (xm ) = E. Pruébese que
5 $ %1/n
2 2πm E Γ(1/n)
τ= .
n E A Γ( 12 + 1/n)

Determı́nese el valor lı́mite del perı́odo cuando n → ∞. Investı́guese el


comportamiento del sistema fı́sico en el lı́mite.
23. Pruébese que
1
a) ψ(1 + z) − ψ(z) = ; b) ψ(1 − z) − ψ(z) = π cot πz.
z
24. Encuéntrese la expresión de las dos primeras derivadas logarı́tmicas de Γ(z).
25. Demuéstrese que

&
ψ(z + 1) = −γ + (−1)n ζ(n)z n−1 .
n=2

26. Demuéstrese que


ψ(z)
lim = (−1)m+1 m! , m = 0, 1, 2, . . .
z→−m Γ(z)
34
Charles Agustin de Coulomb (1736–1806), ingeniero y matemático francés que tra-
bajó en matemática aplicada, pero que es más conocido por sus resultados sobre electri-
cidad y magnetismo. De hecho fue él quien estableció de forma experimental la ley que
en electrostática lleva su nombre.
1.8. PROBLEMAS 63

27. Evalúense las siguientes integrales


1 ∞1 ∞
2 2
a) xα y β e−(x +y ) dx dy, Re(α), Re(β) > −1;
0 0
1 1 $ %n−1
1
xn dx 1
1
b) √ ; c) ln dy ;
0 1 − x2 0 y
1 ∞ 1 ∞
y n−1
d) xy−1 e−x (ln x)n dx ; e) dy ;
0 0 (1 + y)n+m
1 ∞ 1 ∞
tp−1
f) (cosh ϕ)α (senh ϕ)β dϕ; g) dt ;
0 0 1+t
1 ∞ 1
cosh 2αϕ π/2

h) dϕ; i) cos ϕ ln(sen ϕ) dϕ;
0 (cosh ϕ)β 0
1 1 √
1
1 π/2
j) √ dx; k) tan θ dθ ;
0 1 − x4 0
1 ∞ 1
−x4
π/2
(sen x)8/3
l) e dx; m) √ dx ;
0 0 cos x
1 ∞
4
n) 4x4 e−x dx.
0

28. Pruébese que


&∞ &∞
(−x)n Γ(a)
γ(a, x) = xa = e−x xa+n .
n=0
n!(a + n) n=0
Γ(a + n + 1)

29. El potencial electrostático generado por un electrón perteneciente a la capa


1s de un átomo de hidrógeno viene dado por la expresión:
/ 0
q 1 1
V (r) = γ(3, 2r/a0 ) + Γ(2, 2r/a0 ) ,
4π00 2r a0
siendo a0 el radio de Bohr35 . Pruébese que para r << a0
/ 0
q 2r2
V (r) = 1 − 2 + ··· ,
4π00 a0 3a0
y que para r >> a0
q 1
V (r) = .
4π00 r
35
Niels Henrik David Bohr (1885–1962), fı́sico teórico danés, sin duda uno de los más
destacados del siglo XX; obtuvo el premio Nobel de Fı́sica en 1922 por sus investigaciones
sobre la estructura atómica.
64 CAPÍTULO 1. LA FUNCIÓN GAMMA

30. Pruébese que la integral exponencial se puede escribir como


1 ∞ &∞
e−t (−1)n xn
dt = −γ − ln x − .
x t n=1
n · n!

31. Al estudiar el comportamiento de una antena lineal aparece la siguiente


integral 1 x
1 − cos t
dt .
0 t
Demuéstrese que es igual a γ + ln x − Ci(x).

32. Pruébese que

1 ' πz ( & ∞
ζ(2n) 2n
log = z , |z| < 1.
2 sen πz n=1
2n

33. Obténgase la forma de Euler de la función ζ(z) de Riemann como un pro-


ducto infinito.

34. Verifı́quense los valores de la función zeta de Riemann que a continuación


se indican:

π2 π4 π6 π8 π 10
ζ(2) = , ζ(4) = , ζ(6) = , ζ(8) = , ζ(10) = .
6 90 945 9450 93555

35. La ley de Planck36 de radiación de un cuerpo negro implica que la energı́a


total emitida viene dada por la siguiente expresión:
1 ∞
8πk 4 T 4 x3
u= dx .
c3 h3 0 ex − 1

Obténgase el valor numérico de la integral. El resultado final es la ley de


Stefan37 -Boltzmann. Generalı́cese este resultado y obtengase el valor de la
siguiente integral:
1 ∞
xs
dx , Re(s) > 0.
0 ex − 1
36
Max Karl Ernst Ludwig Planck (1858–1947), fı́sico teórico alemán que introdujo la
noción de quanto de energı́a. Recibió el premio Nobel de Fı́sica en 1918.
37
Josef Stefan (1835–93), fı́sico matemático austrı́aco. Probó empı́ricamente en 1879
que la radiación total emitida por un cuerpo negro es proporcional a la cuarta potencia
de la temperatura absoluta. Su estudiante L.E. Boltzmann demostró en 1884 que esta
ley se puede deducir matemáticamente a partir de primeros principios.
1.8. PROBLEMAS 65

36. Calcúlese la dependencia con respecto a la temperatura (T ) de la densidad


de energı́a de los neutrinos en los primeros momentos de la historia del
universo, evaluando para ello
1
4π ∞ x3
ρν = 3 x/(kT )+1
dx .
h 0 e

37. Demuéstrese que 1 ∞


xb ex
dx = b! ζ(b) .
0 (ex − 1)2
Suponiendo que b es real, pruébese que los dos miembros de la igualdad
divergen cuando b = 1. Por tanto, la igualdad precedente está sujeta a la
condición b > 1. Integrales de este tipo aparecen en la teorı́a cuántica de
efectos de transporte (para calcular las conductividades térmica y eléctrica).
38. En la aproximación de Bloch38 -Grüneissen, la resistencia de un metal mono-
valente es 1
T 5 Θ/T x5
ρ=C 6 dx,
Θ 0 (ex − 1)(1 − e−x )
siendo Θ la temperatura de Debye39 , una caracterı́stica del metal. Pruébese
que si
C T T5
T → ∞, ρ ≈ , y que si T → 0, ρ ≈ 5! ζ(5) C .
4 Θ2 Θ6
39. Considérese la elipse (x/a)2 + (y/b)2 = 1, que puede expresarse en forma
paramétrica como x = a sen θ, y = b cos θ. Pruébese que la longitud de arco
dentro del primer cuadrante es aE(m), con 0 ≤ m = (a2 − b2 )/a2 < 1.
40. Dedúzcase la expresión del desarrollo en serie de E(m). Pruébese que
K(m) − E(m) π
lim = .
m→0 m 4
41. Desarróllese la función Γ(z)−1 en serie de potencias en z hasta el tercer
orden. Utilı́cese este resultado para hallar una estimación del mı́nimo de la
función Γ(x) en el eje real positivo.
42. Calcúlese el valor numérico del resultado de la integral i) en el ejercicio 27.
Se dan los siguientes datos:
Γ(1, 250) ≈ 0, 90604, ψ(1, 250) ≈ −0, 22745, ψ(1, 500) ≈ 0, 03649.
38
Felix Bloch (1905–), fı́sico estadounidense de origen suizo, que inventó la espec-
trometrı́a de resonancia magnética nuclear (RMN), lo que le sirvió para conseguir el
Nobel de Fı́sica en 1952.
39
Peter Joseph William Debye (1884–1966), fı́sico quı́mico estadounidense de origen
holandés, Nobel de Quı́mica en 1936.
66 CAPÍTULO 1. LA FUNCIÓN GAMMA

43. Demuéstrese que



& ∞
1&
(−1)n [ζ(n) − 1] = [ζ(n) − 1] .
n=2
2 n=2

44. Pruébese que


π
B(p, p) B(p + 1/2, p + 1/2) = .
24p−1 p
45. Demuéstrese que
1 π
dθ Γ( 1 )2
√ = √4 .
0 3 − cos θ 4 π
Puede utilizarse un cambio de variable del tipo cos θ = 1 − 2 tan(φ/2).
46. Evalúense las siguientes integrales definidas
1 1 1 1
dx
a) x
; b) xm (ln x)n dx .
0 x 0

47. La curva que en polares tiene por ecuación rm = 2m−1 am cos mθ está for-
mada por m lazos cerrados iguales. Pruébese que la longitud de la mitad
de uno cualquiera de esos lazos es
1
a π/2 ' cos x ( m1 −1
dx.
m 0 2
Hállese la longitud total de la curva.
48. Pruébese que la función definida como
∞ ;'
2 # z (n −z+z2 /(2n) <
g(z + 1) = (2π)z/2 e−z(z+1)/2−γz /2
1+ e
n=1
n

satisface
(n!)n
g(1) = 1, g(z + 1) = Γ(z)g(z), g(n + 1) = .
11 · 22 · 33 · · · nn
49. Pruébese que
8
# 'r( $ %3
640 π
Γ = 6 √ .
r=1
3 3 3

50. Pruébese que


&∞
τ (n)
(ζ(x))2 = ,
n=1
nx
donde τ (n) es el número de divisores positivos de n (incluyendo a 1 y a n).
1.8. PROBLEMAS 67

51. Dadas las funciones


2x/2 2x/2
U (x) = , V (x) = ,
Γ(1 − x2 ) Γ( 12 − x2 )

y la función F (x) definida mediante


$ %
√ dU dV
F (x) = π V −U ,
dx dx
pruébese que F (x) satisface la ecuación
1
F (x + 1) = x F (x) + ,
Γ(1 − x)
y que, para todos los valores enteros positivos de x, F (x) = Γ(x).
52. Evalúese en términos de la función ψ la suma de los inversos de los primeros
k números naturales.
53. Compruébense los siguientes resultados:
1 1 1 1
a) + + + + · · · = ln 4;
1·1 2·3 3·5 4·7
1 1 1 1 1
b) + + + + ··· = ;
1·3 3·5 5·7 7·9 2
1 1 1 1 π2 − 8
c) + 2 2 + 2 2 + 2 2 + ··· = .
1 ·3
2 2 3 ·5 5 ·7 7 ·9 16
54. Demuéstrese que
∞ $
# %
z2 πz
1− = cos .
n=0
(2n + 1)2 2
Utilı́cese este resultado para mostrar que
∞ $
# %
1 π
1− = .
n=1
(2n + 1) 2 4

55. Verifı́quese el siguiente resultado:


#∞ $ ' x (4 % sen πx senh πx
1− = .
n=1
n (πx)2

56. Hállese la suma de las siguientes series numéricas:



& ∞
&
a) [ζ(2n) − 1]; b) [ζ(2n + 1) − 1] .
n=1 n=1
68 CAPÍTULO 1. LA FUNCIÓN GAMMA

57. Hágase lo mismo con las siguientes series de funciones:



&
a) xn ζ(n), |x| < 1;
n=2
&∞ $ %
1 x+n+1
b) − ln ;
n=1
n x+n
&∞ $ %
1 x+n+1
c) − ln .
n=0
x+n x+n

58. Hállese la curva plana que en cada punto tiene curvatura proporcional a la
longitud del arco recorrido desde el origen de coordenadas. Supóngase que
en el origen el vector tangente a la curva es (1, 0).
1 ∞
q
59. Calcúlese, para todo valor real de q, la integral e−x dx.
0

60. Determı́nese el valor de la integral


1 1/2
2
A= e−x dx.
−1/2

Hállese el valor de 1 ∞
2 sen x
B= e−x dx.
0 x
¿Cuál es el valor del cociente A/B?
61. Calcúlese el valor de la integral
1 ∞
n
I(a, n) = xa e−x dx; a, n > 0.
0

¿Cuál es el valor de las integrales que resultan en los casos particulares



a = 1/4, n = 1/2 y a = 4, n = 2? Dése el resultado en términos de π.
62. La integral
1 1
dx
[ln(1 − x)]2
0 x
aparece en las correcciones de cuarto orden del momento magnético del
electrón. Calcúlese su valor en términos de la funcion ζ(s) de Riemann.
63. Hállese el valor del producto infinito
∞ $
# %
n2
1− .
n=0
n +9
2
1.9. BIBLIOGRAFÍA 69

64. Dado un conjunto de N partı́culas que obedecen la distribución de Maxwell-


Boltzmann, el número de partı́culas que tienen una velocidad comprendida
entre v y v + dv es
' m (3/2 $ %
−mv 2
dN = 4πN v exp
2
dv,
2πkT 2kT

siendo m, K, T constantes fı́sicas conocidas. Calcúlese el valor esperado de


v n , es decir 1
1 ∞ n
.v / =
n
v dN.
N 0
Aplicando
6 este resultado evalúese la desviación estándar de la velocidad:
∆v = .v 2 / − .v/2 .
65. Demuéstrese que 1 ∞ √ 1/4
2
e−t cosh t dt = πe .
0
Para ello, desarróllese en serie el coseno hiperbólico alrededor del origen.
66. Calcúlese 1 2π
(tan x)1/2 dx.
0

67. Evalúese
∞ $
# %$ %
1 1
1− 1+ .
n=2
n n

1.9 Bibliografı́a
1. Abramowitz, M., and Stegun, I.A., Handbook of Mathematical functions,
Dover, 1972.
2. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
3. Ayant, Y. et Borg, M., Fonctions Speciales à l’usage des étudiants en phy-
sique, Dunod, 1971.
4. Erdélyi, A., Magnus, W., Oberhettinger, F., and Tricomi, F.G., Higher
Transcendental Functions, Vols. I-III, MacGraw-Hill, 1953.
5. Erdélyi, A., Asymptotic expansions, Dover, 1956.
6. Kline, M., Mathematical Thought from Ancient to Modern Times, Oxford
Univ. Press, 1972.
7. Markushevich, A.I., Theory of Functions of a Complex Variable, Chelsea,
1977.
70 CAPÍTULO 1. LA FUNCIÓN GAMMA

8. Marsden, J.E. and Hoffmann, M.J., Basic Complex Analysis, Freeman,


1987.
9. Singh, S., El enigma de Fermat, Planeta, 1998.
10. Whittaker, E.T. and Watson, G.N., A Course of Modern Analysis, Cam-
bridge Univ. Press, 1988.
Capı́tulo 2

TEORÍA ELEMENTAL DE
DISTRIBUCIONES

2.1 Introducción

A partir de mediados del siglo XX, la teorı́a de distribuciones se ha con-


vertido en una herramienta de uso obligado tanto en fı́sica teórica como
en teorı́a de la señal. Aunque la motivación inicial para la introducción de
este nuevo concepto matemático se encuentra en el estudio de las ecuaciones
diferenciales en derivadas parciales, esta teorı́a ha tenido una gran influen-
cia en todo el desarrollo moderno del análisis matemático. Esto no debe
hacer olvidar que, antes de su formalización rigurosa por los matemáticos,
ya se usaba en el ámbito de la fı́sica la distribución más común: la delta de
Dirac1 .
Dada la gran utilidad de las distribuciones en campos muy diversos de la
fı́sica, tanto teórica como aplicada, se presenta en este capı́tulo una somera
introducción que hará uso de un mı́nimo de conceptos de esa rama de
las matemáticas que se denomina análisis funcional. El enfoque no puede
ser completamente autocontenido desde el punto de vista matemático, y
habrá que admitir algunos resultados sin que podamos demostrarlos. Nos
1
Paul Adrien Maurice Dirac (1902–1984), fı́sico inglés, Premio Nobel de Fı́sica en 1933
por su predicción de la existencia del positrón. Introdujo este nuevo objeto matemático
sin preocuparse demasiado de su significado preciso en su libro Principios de Mecánica
Cuántica. Fue uno de los creadores de la mecánica cuántica y uno de los arquitectos de
la teorı́a cuántica de campos y de la electrodinámica cuántica.

71
72 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

centraremos después en el estudio más detallado de la delta de Dirac. Pos-


teriormente en el Capı́tulo 12 se efectúa un análisis más profundo y riguroso
de las distribuciones más interesantes en las aplicaciones, las llamadas dis-
tribuciones temperadas.

2.2 Espacios de funciones de prueba

Antes de definir lo que se entiende por distribución, conviene definir un par


de espacios de funciones de prueba que van a ser relevantes para nuestros
intereses futuros: el de las funciones de soporte compacto y el espacio
de Schwartz2 . Por sencillez, vamos a considerar funciones de una única
variable real, pero las ideas que se van a introducir pueden extenderse sin
dificultad a funciones definidas sobre un espacio Rn arbitrario3 .

Definición 1: sea Ω un abierto de R no vacı́o. Llamaremos C k (Ω) al


espacio vectorial de las funciones definidas en Ω y con valores complejos
tales que admiten derivada k-ésima continua. Si esto sucede para todo
k ∈ N, diremos que la función pertenece a C ∞ (Ω). Llamaremos soporte de
una función definida sobre Ω a la adherencia del subconjunto de Ω para el
que la función no se anula.

Definición 2: llamaremos D(Ω) al subespacio vectorial de C ∞ (Ω) for-


mado por aquellas funciones que son además de soporte compacto en Ω.
El espacio D(Ω) que acabamos de definir es un espacio de “funciones de
prueba”, básico en la teorı́a de distribuciones. Obsérvese que todas estas
funciones de prueba son idénticamente nulas fuera de una región finita,
y son además indefinidamente derivables. Un ejemplo de una función no
trivial perteneciente al espacio D ≡ D(R) es el siguiente:

 0, |x| ≥ 1,
f (x) = ' ( (2.2.1)
 exp 1
, |x| < 1.
x2 −1

2
Laurent Schwartz (1915–), matemático francés que creó la teorı́a de las distribuciones
a finales de la década de 1940, poniendo ası́ sobre una base firme los cálculos formales
que hasta entonces se realizaban. Recibió la Medalla Fields (el equivalente del premio
Nobel en Matemáticas) en 1950.
3
Para más información al respecto puede consultarse el Apéndice D del libro de
Galindo y Pascual citado en la bibliografı́a.
2.2. ESPACIOS DE FUNCIONES DE PRUEBA 73

Su gráfica aparece en la Figura 2.1. Puede comprobarse que en x = ±1


esta función es indefinidamente derivable, con derivadas nulas.

0.5

0.4

0.3

0.2

0.1

-2 -1 1 2

Figura 2.1: Ejemplo de función indefinida-


mente derivable y de soporte compacto.

Por desgracia, y como tendremos ocasión de ver más adelante, este


espacio de funciones D no es estable bajo transformación de Fourier, dicho
de otro modo, al aplicar la transformación de Fourier4 a una función de
D podemos obtener una función que ya no pertenece a D. En la práctica
este hecho es poco conveniente, y por ello se utiliza con más frecuencia otro
espacio de funciones de prueba que sı́ es estable bajo transformación de
Fourier: el espacio de Schwartz.
Definición 3: denotaremos por S ≡ S(R) el espacio de Schwartz de las fun-
ciones “indefinidamente derivables y de decrecimiento rápido”, queriendo
indicar ası́ que este espacio está formado por las funciones de clase C ∞ (R)
tales que tanto ellas como sus derivadas de cualquier orden tienden a cero
en el infinito (±∞) más deprisa que el inverso de cualquier polinomio. En
lenguaje simbólico: ϕ ∈ S si y sólo si ϕ ∈ C ∞ (R) y

dp ϕ(x)
|x|m (2.2.2)
dxp
es una función acotada en R, y ésto ∀ m, p ∈ N. Obsérvese que D(R) ⊂ S(R)
2 2
y que, por ejemplo, la función e−x ∈ S, pero sin embargo e−x ∈ / D.
4
Jean Baptiste Joseph Fourier (1768–1830), matemático francés y destacado consejero
de Napoleón.
74 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

Definición 4: en el espacio S de las funciones de prueba infinitamente


derivables y de decrecimiento rápido se introduce la siguiente noción de
convergencia: la sucesión {ϕn } converge a ϕ en S si ∀ m, p ∈ N
@ $ %@
@ m dp ϕn dp ϕ @ n→∞
@|x| − p @ −→ 0 uniformemente. (2.2.3)
@ dxp dx @

Observaciones:
i) Se puede demostrar que el espacio D es denso en S.
ii) También se puede demostrar que S es estable bajo la transformación
de Fourier.
Un estudio más exhaustivo del espacio de Schwartz se realizará en el Capı́-
tulo 12.

2.3 Distribuciones o funciones generalizadas

Estamos ahora en condiciones de definir las distribuciones sobre un espacio


de funciones de prueba (D o S).

Definición 5: una distribución es una aplicación lineal y continua de un


espacio de funciones de prueba en C (este tipo de aplicaciones se denominan
también “funcionales lineales y continuos”).
Ası́ por ejemplo, tendremos, entre otras, las siguientes:

a) Distribuciones de Schwartz: T : D → C. Llamamos D! al espacio


vectorial de las distribuciones sobre D: T ∈ D! .

b) Distribuciones temperadas (o atemperadas): T : S → C. Llamamos


S ! al espacio vectorial de las distribuciones temperadas: T ∈ S ! .

En ambos casos la continuidad quiere decir que si {ϕn }→ϕ en D o S,


entonces {T (ϕn )}→T (ϕ). La linealidad significa que

T (αϕ1 + βϕ2 ) = αT (ϕ1 ) + βT (ϕ2 ), ∀ α, β ∈ C; ∀ ϕ1 , ϕ2 ∈ D o S. (2.3.1)

Por razones que se podrı́an ver más claras al estudiar la teorı́a de los
2.3. DISTRIBUCIONES O FUNCIONES GENERALIZADAS 75

espacios de Hilbert5 , introducimos ahora una notación nueva y equivalente


a la ya usada, y que es la usada tı́picamente para indicar los productos
escalares: T (ϕ) ≡ .T |ϕ/. La linealidad y la continuidad se escriben en esta
nueva notación ası́:

.T |αϕ1 + βϕ2 / = α.T |ϕ1 / + β.T |ϕ2 /; .T |ϕn /−→.T |ϕ/. (2.3.2)

2.3.1 Ejemplos de distribuciones

Veamos ahora unos ejemplos sencillos de distribuciones temperadas (que


son las que más nos interesan):

1. Toda función integrable en R es una distribución temperada. En


efecto, sea f (x) integrable en R (es decir, tal que la integral de |f (x)|
en R es finita), y sea ϕ(x) ∈ S. Definamos la “distribución asociada
a f (x)” como aquella distribución Tf que actúa sobre las funciones
del espacio de Schwartz del siguiente modo:
1 ∞
Tf (ϕ) ≡ .Tf |ϕ/ := f (x)ϕ(x) dx. (2.3.3)
−∞

La integral es finita por ser f integrable y estar ϕ acotada (este hecho


se deduce de su pertenencia a S). Claramente Tf es una aplicación
lineal de S en C. La continuidad de la aplicación Tf puede probarse
usando argumentos topológicos, lo cual se hará en el Capı́tulo 12.

2. Usando la misma definición (2.3.3), se puede comprobar que toda


función acotada es también una distribución temperada (estricta-
mente hablando dirı́amos que a toda función acotada se le puede
asociar una distribución temperada).
5
David Hilbert (1862–1943), matemático alemán, probablemente el más destacado
del siglo XX. Realizó importantes contribuciones en muchas ramas de las matemáticas,
como análisis funcional, teorı́a de invariantes, ecuaciones integrales, cálculo de variaciones
y fı́sica matemática. Es bastante conocido su discurso titulado Los Problemas de las
Matemáticas, pronunciado en el Segundo Congreso Internacional de Matemáticos en el
Parı́s de 1900, proponiendo 23 problemas fundamentales abiertos de cara al nuevo siglo
XX; la mayor parte de ellos fueron resueltos a lo largo del siglo XX, resultando en cada
caso un avance realmente relevante en matemáticas. De forma prácticamente simultánea
e independiente de A. Einstein, derivó las ecuaciones correctas del campo gravitatorio de
la relatividad general en 1915, usando una formulación basada en el cálculo variacional.
76 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

3. La delta de Dirac en x0 ∈ R, δx0 , es una distribución temperada que


se define como sigue:

δx0 (ϕ) ≡ .δx0 |ϕ/ := ϕ(x0 ), (2.3.4)

es decir, al actuar sobre una función ϕ(x) nos da un número que es


precisamente el valor de esta función en x0 .

4. Otra distribución temperada de interés es el “valor principal de Cau-


chy”, que suele denotarse como P( x1 ), definida
$ % 1
1 ϕ(x)
.P |ϕ/ := lim dx. (2.3.5)
x $→0 |x|≥$ x

Obsérvese que esta última definición coincide con lo que se denomina


el “valor principal de Cauchy” de la integral, cuando se estudia la
Variable Compleja.

Nota importante. De lo visto en los ejemplos anteriores se sigue un de-


talle interesante: en la práctica una distribución T se puede representar
como si fuera una función T (x), de manera que, simbólicamente, escribire-
mos
1 ∞
T (ϕ) ≡ .T |ϕ/ ≡ T (x)ϕ(x) dx, ϕ ∈ S, T ∈ S ! . (2.3.6)
−∞

Por ejemplo, la delta de Dirac δx0 se puede escribir alternativamente bajo


la forma δ(x − x0 ), como si fuera una función. Entonces la acción de la
misma en ϕ ∈ S se escribirı́a como
1 ∞
δx0 (ϕ) = δ(x − x0 ) ϕ(x) dx = ϕ(x0 ). (2.3.7)
−∞

2.4 Operaciones con distribuciones

Dadas dos distribuciones del mismo tipo (por ejemplo temperadas), se


puede definir su suma y también la distribución resultante de multiplicar
a una distribución por un escalar. Es más, se puede definir el producto de
una distribución por una función; pero lo que en general carece de sentido
es el producto de dos distribuciones cualesquiera.
2.5. DEFINICIÓN MATEMÁTICA DE LA DELTA DE DIRAC 77

Dada una sucesión de funciones {ϕn (x)}−→ϕ(x) en D o S, mediante la


definición (2.2.3), y usando argumentos de continuidad, se puede demostrar
que la sucesión
/ p 0
d ϕn (x) dp ϕ(x)
−→ , ∀ p ∈ N. (2.4.1)
dxp dxp
Esto permite definir la derivada p-ésima de una distribución T como aquella
distribución que actúa del siguiente modo:
$ p %
d T dp T p
pd ϕ
(ϕ) ≡ . |ϕ/ := .T |(−1) / (2.4.2)
dxp dxp dxp
La presencia del factor (−1)p , que en principio parece extraño, tiene su
razón de ser, ya que aparece de modo “natural” cuando se utiliza la notación
en términos de integrales y se “integra formalmente por partes” de forma
reiterada (teniendo en cuenta que ϕ ∈ S):
1 ∞ p 1 ∞
dp T d T (x) dp ϕ(x)
. p |ϕ/ = p
ϕ(x) dx = (−1)p
T (x) dx
dx −∞ dx −∞ dxp
dp ϕ
= (−1)p .T | /. (2.4.3)
dxp
De esto se deduce que toda distribución temperada es indefinidamente
derivable, en el sentido de las distribuciones.
Se define también la distribución trasladada por a ∈ R de una dis-
tribución T , denotándola como Ta : es aquella que actúa del siguiente modo
1 ∞
.Ta (x)|ϕ(x)/ := .T (x)|ϕ(x + a)/ = T (x)ϕ(x + a) dx
−∞
1 ∞
= T (x − a)ϕ(x) dx = .T (x − a)|ϕ(x)/. (2.4.4)
−∞

Este resultado nos permite usar cualquiera de las dos notaciones equiva-
lentes
Ta (x) = T (x − a).

2.5 Definición matemática de la delta de Dirac

La distribución delta de Dirac en x0 ya fue definida en (2.3.4). Usando


los resultados y la notación de la sección precedente, es fácil mostrar que
78 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

se puede considerar δx0 como la distribución trasladada de δ(x) ≡ δ0 (x),


definida ésta como aquella distribución que actúa ası́: .δ(x)|ϕ(x)/ = ϕ(0).
En efecto,
.δx0 (x)|ϕ(x)/ = ϕ(x0 ) = .δ(x)|ϕ(x + x0 )/ = .δ(x − x0 )|ϕ(x)/, (2.5.1)
de manera que en lo sucesivo usaremos siempre el sı́mbolo δ(x−x0 ). Pero es
más, usando la notación de las integrales, tenemos las siguientes relaciones:
1 ∞
.δ(x)|ϕ(x)/ ≡ δ(x)ϕ(x) dx = ϕ(0); (2.5.2)
−∞
1 ∞
.δ(x − x0 )|ϕ(x)/ ≡ δ(x − x0 )ϕ(x) dx = ϕ(x0 ). (2.5.3)
−∞

En particular, si tomamos ϕ(x) = 1 (que para ser estrictos hemos de decir


que es una función que no pertenece al espacio de Schwartz S), tenemos,
formalmente, el resultado siguiente
1 ∞ 1 ∞
δ(x − x0 ) dx = δ(x) dx = 1. (2.5.4)
−∞ −∞

La viabilidad de (2.5.4) no está clara ahora mismo, pues 1 ∈ / S. No obs-


tante puede darse una definición rigurosa de la integral en (2.5.4), que será
presentada en el Capı́tulo 12. Por ahora el sentido de estas “integrales”
(2.5.2)–(2.5.4) es puramente formal: representan la acción de la distribución
δ sobre funciones de S.
En una dimensión (que es el único caso que estamos considerando por
ahora) la función de Heaviside6 se define ası́:

 0, x < x0 ,

H(x − x0 ) = 2 , x = x0 , (2.5.5)
1


1, x > x0 .
6
Oliver Heaviside (1850–1925) fue un telegrafista inglés que quedó fascinado por el
Tratado sobre Electricidad y Magnetismo de Maxwell. Comenzó a desarrollar sus propias
ideas sobre el tema, y logró simplificar las ecuaciones que proponı́a Maxwell usando
un método de cálculo operacional que él mismo desarrolló (¡de hecho lo que hoy lla-
mamos ecuaciones de Maxwell son la versión simplificada propuesta por Heaviside!). Los
métodos de Heaviside causaron gran controversia entre sus contemporáneos y su validez
tardó algún tiempo en ser demostrada. Conviene indicar también que en 1902 predijo la
existencia de una capa conductora en la atmósfera que permitirı́a a las ondas de radio
propagarse siguiendo la curvatura de la tierra (la existencia de la mencionada capa, que
lleva su nombre, se demostró experimentalmente en 1923).
2.5. DEFINICIÓN MATEMÁTICA DE LA DELTA DE DIRAC 79

Obsérvese que se trata de una función discontinua7 , pero acotada, y por


tanto se le puede asociar una distribución usando la fórmula (2.3.3), según
vimos en el Ejemplo 2 de la Sección 2.3.1. En concreto, la acción de esta
distribución es:
1 ∞ 1 ∞
H(x − x0 ) : ϕ(x) → H(x − x0 )ϕ(x) dx = ϕ(x) dx. (2.5.6)
−∞ x0

Vamos a demostrar ahora que la distribución δ(x − x0 ) es la derivada


(en el sentido de las distribuciones) de H(x−x0 ). La derivada de la función
(o distribución) de Heaviside actúa del siguiente modo:
1 ∞
dH(x − x0 ) dϕ(x) dϕ(x)
: ϕ(x) → .H(x − x0 )| − /=− H(x − x0 ) dx
dx dx −∞ dx
1 ∞
dϕ(x)
=− dx = ϕ(x0 ) − ϕ(∞)
x0 dx
= .δ(x − x0 )|ϕ(x)/, (2.5.7)

ya que ϕ(∞) = 0 por ser ϕ(x) ∈ S. El resultado precedente nos permite


decir que, como distribuciones,

dH(x − x0 )
= δ(x − x0 ). (2.5.8)
dx
Este resultado es muy útil y permite derivar funciones que presenten dis-
continuidades de salto finito, cosa que hasta ahora no podı́amos hacer (en
los cursos de cálculo o de análisis matemático se nos decı́a que una función
no era derivable en los puntos de discontinuidad). La derivada de una
función que presente una discontinuidad de salto finito nos dará una δ en
la discontinidad, ¡una distribución!
Ejemplo: derivación de funciones con discontinuidades. Consideremos la
función f (x) definida por la gráfica que aparece en la Figura 2.2. Se trata
de una función definida a trozos que es igual a g(x) para x < 0 y vale h(x)
para x > 0. Observando que H(−x) = 1 − H(x), podemos escribir esta
7
El que en x0 la función valga 1/2 es una pura conveniencia y no es relevante para lo
que sigue; de hecho en algunos libros se prescinde del valor en este punto y en otros se le
asigna el valor 1; en cualquier caso, tendrı́amos dos funciones cuyos valores difieren sólo
en un punto, que es un conjunto de medida nula, y son por tanto equivalentes
80 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

función f (x) de forma elegante usando funciones de Heaviside:


) *
g(x), x < 0,
f (x) = = g(x)H(−x) + h(x)H(x). (2.5.9)
h(x), x > 0.

g(x) h(x)
4
3
2
1

-3 -2 -1 1 2 3
-1
-2
-3

Figura 2.2: Ejemplo de función con discon-


tinuidad finita en x = 0.

Derivando y teniendo en cuenta los resultados precedentes:


f ! (x) = g ! (x)H(−x) − g(x)H ! (−x) + h! (x)H(x) + h(x)H ! (x)
= g ! (x)H(−x) + h! (x)H(x) + [h(0) − g(0)]δ(x), (2.5.10)
o bien
)
g ! (x), x < 0,
f ! (x) = [h(0) − g(0)]δ(x) + (2.5.11)
h! (x), x > 0.
Hemos usado el hecho de que u(x)δ(x) ≡ u(0)δ(x), si la función u(x) está
bien definida en el cero. Como vemos, el resultado que se obtiene es la
derivada de f (x) como función, más un término que que es un múltiplo de
la δ centrada en 0, con un coeficiente que justamente es el tamaño del salto
en la discontinuidad.
Lo que acabamos de exponer es sólo válido cuando la discontinuidad en
la función f (x) es de salto finito, de manera que lo anterior no nos permite
hablar de derivabilidad en el sentido de las distribuciones cuando la función
posea otro tipo de discontinuidades más fuertes. También pueden ser irre-
levantes este tipo de consideraciones si, como sucede en ocasiones, estamos
interesados en trabajar únicamente con funciones y no con distribuciones.
2.6. INTERPRETACIÓN FÍSICA DE LA DELTA DE DIRAC 81

2.6 Interpretación fı́sica de la delta de Dirac

Hemos dado una definición de la distribución temperada llamada delta de


Dirac con un nivel de rigor suficiente para muchas aplicaciones fı́sicas, pero
es preciso conectar ahora con las aplicaciones, que son muchas y muy impor-
tantes, pues de otro modo seı́a un objeto de poca utilidad para el cientı́fico
teórico o aplicado. En la práctica, la δ aparece con frecuencia como el
“lı́mite” de una sucesión de funciones cuyo soporte se va “concentrando”
en un punto, punto en el que, en el lı́mite, se alcanza un valor infinito. De
forma más precisa consideremos las siguientes familias funciones:
√ 2 2
a) fn (x) = (n/ π) e−n x ; (2.6.1)
1 n
sen (nx) 1
b) fn (x) = = eixt dt; (2.6.2)
πx 2π −n

c) fn (x) = (n/2) e−n|x| ; (2.6.3)


n 1
d) fn (x) = ; (2.6.4)
π 1 + n2 x2
)
n, |x| ≤ 2n 1
;
e) fn (x) = (2.6.5)
0, |x| > 1
2n .

Para tener una imagen más precisa de estas sucesiones de funciones, se han
dibujado tres curvas correspondientes al caso a) en la Figura 2.3, y otras
tres correspondientes al caso b) en la Figura 2.4.

-2 -1 1 2

2
x2

Figura 2.3: fn (x) = n e−n / π, para n = 1, 3, 10.
82 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

En ambos diagramas se representan las funciones f1 (x), f3 (x) y f10 (x),


la primera con trazo más grueso, la segunda más fino y la tercera con una
lı́nea discontinua. Puede apreciarse como al aumentar el valor del ı́ndice
n, la función resultante está más concentrada en torno al origen, y en ese
punto toma valores cada vez más grandes.

-4 -2 2 4

Figura 2.4: Las funciones fn (x) = (sen nx)/(πx),


para n = 1, 3, 10.

Obsérvese que todas las funciones fn (x) anteriormente escritas se han


elegido de modo que
1 ∞
fn (x) dx = 1, ∀ n ∈ N. (2.6.6)
−∞

Además, se puede demostrar que tomando funciones ϕ(x) ∈ S, tenemos:


1 ∞
lim fn (x)ϕ(x) dx = ϕ(0), ∀ ϕ(x) ∈ S. (2.6.7)
n→∞ −∞

No obstante, hay que ser cautos, ya que, contra lo que ingenuamente se


pudiera pensar, no existe el lı́mite puntual lim fn (x), ya que en todos los
n→∞
casos anteriores se obtiene como lı́mite lo siguiente
)
0, si x != 0,
lim fn (x) = (2.6.8)
n→∞ ∞, si x = 0,

¡que no es una función ya que no esta bien definida!


2.7. PROPIEDADES FUNDAMENTALES DE LA δ DE DIRAC 83

Aunque no exista este lı́mite puntual, se puede probar que existe otro
que se denomina lı́mite débil, y que es precisamente el que aparece en la
ecuación (2.6.7):
1 ∞
lim fn (x)ϕ(x) dx = lim .fn |ϕ/ = ϕ(0) = .δ|ϕ/, ∀ ϕ(x) ∈ S.
n→∞ −∞ n→∞
(2.6.9)
Fı́sicamente a este lı́mite se le puede dar un sentido muy claro: pensemos
en los conceptos de masa puntual, carga puntual, fuerza que actúa sólo
en un instante de tiempo, etc. Todos ellos son idealizaciones que pueden
considerarse como casos lı́mite del tipo de los anteriores lı́mites débiles. Por
ejemplo, consideremos una densidad de masa 3("r ) que está concentrada en
una cierta región del espacio. La masa total asociada a esa densidad será
1
m= 3("r ) d"r. (2.6.10)
R3

La noción de masa puntual m surge al considerar el lı́mite en el que la den-


sidad 3("r ), que sigue generando toda la masa m mediante la expresión
(2.6.10), es no nula sólo en una región muy pequeña del espacio (tan
pequeña que, en el lı́mite, llega a ser un punto "r0 ). Entonces tendrı́amos
que 3("r ) = m δ("r − "r0 ). Estas ideas pueden expresarse de una manera
rigurosa dentro del contexto de la Teorı́a de la Medida.

2.7 Propiedades fundamentales de la δ de Dirac

Podemos enumerar ahora una serie de propiedades que se demuestran (al-


gunas de manera muy sencilla y otras con un poco más de trabajo) sin más
que operar formalmente en la expresión integral que define la acción de la
delta de Dirac (2.5.3):

1. δ(−x) = δ(x).
1
2. δ(ax) = δ(x), a ∈ R, a != 0.
|a|
3. Si g(x) es una función bien definida en el punto x = a, entonces
g(x) δ(x − a) = g(a) δ(x − a). En particular x δ(x) = 0, y por
tanto f (x) = k δ(x), con k una constante arbitraria, es solución de la
ecuación x f (x) = 0.
84 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

1 )
c ϕ(a), si a ∈ (b, c),
4. Si [b, c] ⊂ R, entonces δ(x − a)ϕ(x) dx =
b 0, si a ∈
/ [b, c].
Cuando a = b ó a = c esta integral no está bien definida (y puede
tomar cualquier valor, según la sucesión fn (x) → δ(x) que se elija; si
se toman todas las fn (x) pares, entonces se puede asignar a este caso
especial a = b ó a = c el valor ϕ(a)/2).
1 ∞
5. δ(x − y) δ(x − z) dx = δ(y − z).
−∞

6. Si g(x) es una función real que tiene ceros simples en un conjunto de


puntos {xk } (es decir, g(xk ) = 0, pero g ! (xk ) != 0, ∀ k), entonces
& 1
δ(g(x)) = δ(x − xk ). (2.7.1)
|g (xk )|
!
k

Si g(x) tiene ceros múltiples, el sı́mbolo δ(g(x)) carece de sentido


(esto puede verse fácilmente considerando, por ejemplo, la expresión
δ(x2 ), y viendo lo que ocurre con la sucesión fn (x2 ) en (2.6.3)).
7. De lo visto en (2.4.3) al definir la derivada de una distribución, tene-
mos lo siguiente:
1 ∞ 2
n
n d ϕ(x) 2
2
δ (x)ϕ(x) dx = (−1)
(n)
n 2
= (−1)n ϕ(n) (0). (2.7.2)
−∞ dx x=0
Además
δ (n) (−x) = (−1)n δ (n) (x),
xn δ (n) (x) = −n xn−1 δ (n−1) (x) = (−1)n n! δ(x).
La última expresión puede demostrarse por inducción, partiendo de
la derivada de la ecuación x δ(x) = 0.
8. Trabajando en Rn , ha de definirse el espacio S(Rn ), y la delta de
Dirac n-dimensional se define entonces actuando sobre funciones de
S(Rn ). En la práctica, y en coordenadas cartesianas, es el siguiente
producto de distribuciones unidimensionales:
δ("x − "a) = δ(x1 − a1 ) δ(x2 − a2 ) δ(x3 − a3 ) · · · δ(xn − an ), (2.7.3)
y verifica propiedades similares a la delta de Dirac unidimensional. No
obstante téngase en cuenta que expresiones como δ(x − x0 ) δ(x − x1 )
carecen de sentido.
2.8. PROBLEMAS 85

9. En el caso particular del espacio tridimensional, tenemos las siguientes


expresiones en coordenadas cartesianas y esféricas:

δ("r − "r0 ) = δ(x − x0 ) δ(y − y0 ) δ(z − z0 )


1
= δ(r − r0 ) δ(θ − θ0 ) δ(φ − φ0 )
r2 sen θ
1
= δ(r − r0 ) δ(cos θ − cos θ0 ) δ(φ − φ0 ). (2.7.4)
r2

10. Otra expresión útil, y que aparece en ciertos problemas fı́sicos, es el


valor del laplaciano de la función r−1 en el caso tridimensional:
$ % $ %
2 1 1
∇ ≡∆ = −4π δ("r ). (2.7.5)
r r

11. Tomando formalmente el lı́mite en (2.6.2) se llega a


1 ∞
1
δ(x) = eixt dt. (2.7.6)
2π −∞

Esta fórmula se justificará al estudiar la transformación de Fourier.

2.8 Problemas
1. Considérense las distribuciones asociadas a las siguientes funciones:
n 1
a) fn (x) = .
π 1 + n2 x2
n 2 2
b) fn (x) = √ e−n x .
π
1 sen2 (nx)
c) fn (x) = .
nπ x2
Demuéstrese que no existe lim fn (x) en el sentido normal de las funciones,
n→∞
pero que sus distribuciones asociadas convergen a δ(x). Verifı́quese que
1 x
lim fn (y) dy = H(x),
n→∞ −∞

donde H(x) es la función salto de Heaviside.


86 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

2. Pruébese que la función de Heaviside admite la siguiente representación


integral 1 +∞ iωt
1 e 1
H(t) = dω + .
2πi −∞ ω 2
Especifı́quese el tratamiento del camino de integración en el polo.
3. Considérense las siguientes sucesiones de funciones:
1 ∞
1 1 2
a) gn (x) = erfc(−nx) = √ e−u du.
2 π −nx
1 nx
1 1 1 sen u
b) gn (x) = + Si(nx) = du.
2 π π −∞ u
e −e−nx
c) gn (x) = e .
2
Pruébese que todas ellas convergen a la función de Heaviside H(x).
4. Teniendo en cuenta que se verifica la siguiente relación
|x| = x (2H(x) − 1),
hállense las siguientes derivadas:
d2 |x| d4 |x|3
a) ; b) .
dx2 dx4
5. Evalúese una expresión, válida en el intervalo [−π, π], para la derivada
d2 |sen x|
.
dx2
6. Verifı́quense las relaciones siguientes:
3 4 1
a) δ b(x − a) = δ(x − a); b != 0;
|b|
signo(a) %
b) δ % (ax) = δ (x);
a2
c) x δ % (x) = −δ(x);
1
d) δ(x2 − a2 ) = {δ(x − a) + δ(x + a)}; a > 0;
2a
& 1
e) δ(g(x)) = δ(x − xk ).
|g % (xk )|
k

En la última expresión, xk representa sólo los ceros simples de la función


g(x); si g(x) tiene ceros múltiples, el objeto δ(g(x)) no está bien definido,
carece de sentido.
2.8. PROBLEMAS 87

7. Demuéstrese la siguiente expresión


1 sen λx
lim = δ(x)
λ→∞ π x
y discútase su significado.
8. Considérese una cuerda perfectamente elástica sometida a una tensión cons-
tante T a lo largo del eje x, con sus extremos en los puntos fijos x = 0 y
x = L, y cuya posición de equilibrio es una recta. Sobre la cuerda actúa
además una fuerza de magnitud F (x) por unidad de longitud. Hállese el
perfil de la cuerda.
Nota: la ecuación que describe la separación de la cuerda del eje x en la
dirección z es
d2 z(x) F (x)
= = f (x).
dx2 T
Hállese z(x) resolviendo en primer lugar
d2 G(x, µ)
= δ(x − µ) , 0 ≤ µ ≤ L,
dx2
con las condiciones G(0, µ) = 0 y G(L, µ) = 0, y observando que
1 L
z(x) = f (µ)G(x, µ) dµ .
0

9. Evalúense las siguientes integrales:


1 ∞
1 + 2δ(x − 1)
a) dx;
−∞ 1 + x2
1 ∞
sen2 t
b) [δ(t + π) + 5δ(t − 4π)] dt;
−∞ 1 + 2t2
1 ∞
senh 3y
c) [δ(y + 4) + δ(y − 4)] dy;
−∞ 1 + y2
1 ∞
H(v − 1) [1 + δ(v + 1)]
d) dv.
−∞ 1 + v2

10. Encuéntrese la ecuación de movimiento de un oscilador armónico amor-


tiguado sometido a la acción de una fuerza externa impulsiva f (t) que puede
ser bien aproximada por Iδ(t − t0 ), I > 0.
11. Siendo ∇2 el laplaciano, compruébese que
$ % 6
1 1
δ("r ) = − ∇2 , r = x2 + y 2 + z 2 .
4π r
88 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

12. Calcúlese en R2 $ %
1
∇ 2
log .
r
13. Considérese una viga delgada con sus extremos apoyados en los puntos x = 0
y x = L, como se indica en el dibujo. Hállese el perfil cuando se coloca un
peso en su punto medio, lo cual quiere decir que q(x) = P δ(x − L/2).

NOTAS: la ecuación que rige el comportamiento de la viga es


d4 z(x) 1
4
= q(x) , E, I = ctes.
dx EI
Cuando los extremos de la viga bien están apoyados o bien están articulados,
ha de imponerse que el valor de z %% en esos puntos es 0.
14. Determı́nese la magnitud de la flexión o deformación que sufre una viga
delgada de peso despreciable, de longitud L, con un extremo fijo en x = 0,
cuando se ve sometida a una carga concentrada q(x) = P δ(x−µ), 0 < µ < L.

NOTA: en un extremo fijo se ha de cumplir que z % = 0; en un extremo libre,


se ha de imponer z %% = z %%% = 0.
15. Considérese un circuito eléctrico LRC alimentado por una fuerza electro-
motriz periódica 0(t), de perı́odo T , que es la onda cuadrada
)
00 , −T /4 ≤ t ≤ T /4;
0(t) =
0, T /4 ≤ t ≤ 3T /4.
Determı́nese la intensidad de corriente en el circuito una vez que se ha
alcanzado la situación estacionaria, formulando el problema en términos de
la δ de Dirac.
2.8. PROBLEMAS 89

16. En el plano (x, t) se define la función


H(t) x2
E(x, t) = √ e− 4t ,
2 πt
siendo H(t) la función de Heaviside. Calcúlese, en el sentido de las distribu-
ciones,
∂E ∂2E
− .
∂t ∂x2
17. Hállense las siguientes integrales múltiples
1 3 1 ∞ $ $ %%
1 1
a) dx dy δ(y − e1/x ) δ(sen x) ln 1+ .
1 0 y x
1 π 1 2
b) dx dy δ(x2 − y 2 ) δ(sen x) .
0 1
1 ∞ 1 ∞ $ $ %%
1 1
c) dx dy δ(y − e 1/x
) δ(sen x) ln 1+ .
1 0 y x
Préstese especial atención a los intervalos de integración que se indican.
18. Sea V (x) = V0 H(x) − gδ(x), g > 0, el potencial al que se encuentra
sometida una partı́cula de masa m cuya evolución se rige por la ecuación
de Schrödinger8 . Demuéstrese que, para que exista un estado ligado, debe
verificarse la desigualdad 6
g > ! V0 /2m.
19. Calcúlese el valor de las siguientes integrales:
1 4

a) δ(x − e) arcsen [ln x] dx.
−2

1 $ %
12

b) δ x+ cos x dx.
−9 2

20. Evalúense las expresiones


1 ∞ $ %

a) δ x+ sen x dx.
−9 2
1 ∞ $ %

b) δ x−i sen x dx.
−∞ 2
8
Erwin Rudolf Josef Alexander Schrödinger (1887–1961), fı́sico teórico austrı́aco, uno
de los fundadores de la teorı́a cuántica. Recibió el premio Nobel en 1933, compartido
con Dirac.
90 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

21. Calcúlese el valor de las siguientes integrales explicando someramente las


propiedades que se aplican:
1 9 √
a) δ(x − e2 ) arcsen [ln x] dx.
4

1 13
b) δ (x + 4π) cos x dx.
−12

22. Sea α(x) la distribución definida como



&
α(x) = δ(x − n),
n=−∞, n&=0

siendo δ(x) la delta de Dirac. Calcúlese, en términos de alguna función


conocida, la integral 1 ∞
dx
I= α(x) 2 .
−∞ x

23. Hállese la integral 1 ∞


2
e−x δ(sen x) dx.
−∞

¿Toma un valor finito o infinito?


24. Dada la distribución

&
α(x) = δ(x2 − 2n ),
n=0

hágase un dibujo esquemático de lo que representa (de hecho, puede conside-


rarse como un modelo de potencial unidimensional para un sólido cristalino)
y evalúese la integral 1 ∞
dx
I= α(x) .
0 x
25. Sea θ una distribución temperada tal que su transformada de Fourier es

&
F(θ) = cn δ(x − n).
n=−∞

Demuéstrese que la distribución θ es periódica y que los cn son sus coefi-


cientes de Fourier.
NOTA. Se dice que una distribución es periódica, de perı́odo T , si

.θ|f (x + T ) − f (x)/ = 0.
2.8. PROBLEMAS 91

26. Calcúlense las derivadas sucesivas de la distribución


 π π

 1 para (2k − 1) < x < (2k + 1) ,
2 2
Y (x) = π π

 −1 para (2k + 1) < x < (2k + 3) ,
2 2
donde k toma todos los posibles valores enteros pares.
27. Calcúlese, en el sentido de las distribuciones, las derivadas hasta el orden
cuarto de
a) µ1 (x) = |x| sen x.

b) µ2 (x) = |x| cos x.

28. Encuéntrese la solución de las siguientes ecuaciones diferenciales de primer


orden con las condiciones iniciales que se indican, dibujando el resultado:
a) y % − 2y = δ(x − 3), y(0) = 0.

b) y % + 2y = δ(x − 1), y(0) = 1.

c) y % − 3y = δ(x − 2), y(0) = −1.

d) y % + 4y = 3 δ(x − 1/2), y(0) = 2.

e) y % + y = x δ(x − 2), y(0) = 0.

f) y % + y = sen x δ(x − 2π), y(0) = 1.

29. Hállense todas las distribuciones λn (x) que verifican la ecuación


xn λn (x) = 1, n = 1, 2, 3. . . .
Demuéstrese que si λn (x) es una solución de la ecuación anterior para un
n fijado, entonces λ%n (x) es, salvo una constante, la solución de la ecuación
equivalente para n + 1.
30. En R3 se considera una función radial f (r) solución para r != 0 de la ecuación
∇2 f + a2 f = 0.
Determı́nese la ecuación diferencial que satisface g(r) = r f (r). Demuéstrese
que si
lim r f (r) = c,
r→0
entonces, en el sentido de las distribuciones,
∇2 f + a2 f = k c δ("r ),
siendo k != 0 una constante que se ha de hallar.
92 CAPÍTULO 2. TEORÍA ELEMENTAL DE DISTRIBUCIONES

31. En Rn , calcúlese en el sentido de las distribuciones

(∇2 )k (r2k−n ln r)

cuando 2k − n es un número entero par y positivo.

2.9 Bibliografı́a
1. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
2. Butkov, E., Mathematical Physics, Addison-Wesley, 1968.
3. Cohen-Tannoudji, C., Diu, B. et Laloë, F., Mécanique Quantique, Hermann,
1973.
4. Dirac, P.A.M., Principios de Mecánica Cuántica, Ariel, 1968.
5. Galindo, A. y Pascual, P., Mecánica Cuántica, Alhambra, 1978.
6. Gasquet, C., et Witomski, P., Analyse de Fourier et applications, Masson,
1990.
7. Mathews, J. and Walker, R.L., Matemáticas para fı́sicos, Reverté , 1979.
8. Schwartz, L., Métodos matemáticos para las ciencias fı́sicas, Selecciones
Cientı́ficas, 1969.
9. Wunsch, A.D., Variable compleja con aplicaciones, Addison-Wesley Iberoa-
mericana, 1997.
Capı́tulo 3

SERIES DE FOURIER

3.1 Introducción

A partir de 1740, y en relación con el estudio tanto experimental como


teórico de la vibración de cuerdas musicales, diversos matemáticos de prime-
ra lı́nea entre los que podemos mencionar a Daniel Bernouilli1 , d’Alembert2 ,
Lagrange3 y Euler, entraron en acaloradas discusiones sobre la posibilidad

1
Daniel Bernouilli (1700–82), eminente cientı́fico miembro de una destacada familia
de matemáticos suizos. Entre sus muchos descubrimientos cabe indicar que fue él quien
introdujo la noción de modos normales de vibración de sistemas oscilatorios (campo
en el que colaboró activamente con Euler); también trabajó en hidrodinámica y sentó
las bases de la teorı́a cinética de los gases; impartió clases de fı́sica en Basilea, y de sus
experimentos intuyó lo que después se ha denominado ley de Coulomb de la electrostática;
realizó además destacadas contribuciones en magnetismo, naútica, teorı́a de las mareas,
astronomı́a, etc.
2
Jean Le Rond d’Alembert (1717–83), matemático y hombre de letras francés, que co-
laboró de forma activa en la elaboración de la famosa “Enciclopedia”, junto con Diderot.
Estableció la ciencia de la mecánica como una rama de las matemáticas (“mecánica
racional”), siendo un pionero en el estudio y la utilización de las ecuaciones en derivadas
parciales. Fue uno de los primeros en darse cuenta de la trascendencia del concepto de
función, y de la necesidad de definir adecuadamente la noción de lı́mite, introduciendo
la derivada como el lı́mite de un cociente de incrementos.
3
Joseph-Louis Lagrange (1736–1813), matemático francés (aunque nacido en Turı́n)
que realizó importantes contribuciones al cálculo variacional, a la teorı́a de las ecuaciones
diferenciales, a la astronomı́a y a la mecánica (su obra Mecánica Analı́tica resume todo
el trabajo efectuado en este campo desde Newton, destacando el uso que se hace de las
ecuaciones diferenciales). También trabajó en temas de matemática pura, como la teorı́a
de números, siendo un precursor de la teorı́a de grupos.

93
94 CAPÍTULO 3. SERIES DE FOURIER

de representar una función, más o menos arbitraria, de perı́odo 2π, como


la suma de una serie trigonométrica, que es una expresión del tipo

&
a0
+ (ak cos kx + bk sen kx) (3.1.1)
2
k=1
a0
= + a1 cos x + b1 sen x + a2 cos 2x + b2 sen 2x + · · · ,
2
o en forma compleja

&
ck eikx , (3.1.2)
k=−∞

siendo
ak − ibk ak + ibk
ck = , c−k = , b0 = 0; k = 0, 1, 2, . . . (3.1.3)
2 2
Los matemáticos del siglo XVIII también usaron de manera asidua este tipo
de series en sus estudios de problemas astronómicos. La utilidad de estas
series en astronomı́a es evidente por el hecho de que se trata de funciones
periódicas y los fenómenos astronómicos son esencialmente periódicos. Una
de las aplicaciones de las series trigonométricas en este campo está rela-
cionada con la necesidad de interpolar para conocer las posiciones de los
planetas entre ciertas posiciones conocidas por observación directa.
Estos debates generaron una de las crisis más profundas en el desarrollo
del análisis matemático4 . Para hacernos una idea, pensemos que en aquella
época la propia definición de “función” no estaba aún completamente es-
tablecida y matemáticos tan eminentes como Euler y d’Alembert discrepa-
ban bastante en este punto. Los resultados de esta polémica dieciochesca
no fueron definitivos. Como ya se ha mencionado, uno de los mayores
escollos guardaba relación con la posibilidad de representar una función
arbitraria mediante una serie trigonométrica. La resolución de este proble-
ma se debe a Fourier. En 1811, Joseph Fourier anunció su convicción de
que una representación del tipo indicado en (3.1.2) es posible. Su trabajo
“Théorie Analytique de la Chaleur” (1822) contiene muchos casos particu-
lares de tales representaciones trigonométricas, de las que se hace amplio
uso a lo largo de la obra. Debido a esto, el nombre de Fourier se asocia
usualmente al problema de hallar la representación trigonométrica de una
4
Para más información véase la obra de Kline citada en el Capı́tulo 1.
3.1. INTRODUCCIÓN 95

función, y más precisamente, al hecho de que dada una función f (x), a la


que se supone integrable en el intervalo (−π, π), se le asocie una serie de
Fourier , que es una serie trigonométrica en la que los coeficientes están
dados por las expresiones siguientes:
1
1 π
ak = f (x) cos kx dx; (3.1.4)
π −π
1
1 π
bk = f (x) sen kx dx; (3.1.5)
π −π
1 π
1
ck = f (x) e−ikx dx. (3.1.6)
2π −π

Fourier demostró que, en muchos casos, la serie de Fourier realmente con-


verge a la función.
Aunque ya en el perı́odo 1823-1827 Poisson5 y Cauchy enunciaron diver-
sos teoremas para asegurar la validez de desarrollos del tipo indicado para
ciertas clases de funciones, parece justo atribuir a Dirichlet6 el comienzo
del estudio riguroso de las series de Fourier en 1829. Estos dos temas han
tenido un gran desarrollo subsecuente, a pesar de alguna crisis no menos
seria que la anteriormente citada del siglo XVIII. Indiquemos, por ejemplo,
que los trabajos de Cantor7 en teorı́a de conjuntos tienen sus orı́genes en
el estudio de las series trigonométricas.
Los desarrollos rigurosos que que acabamos de mencionar mostraron de
manera clara que hay sutiles diferencias entre series trigonométricas que
convergen en todo punto y lo que se llaman series de Fourier de funciones
5
Siméon-Denis Poisson (1781–1840), destacado fı́sico matemático frances, que trabajó
en la teorı́a del calor, en la teorı́a del potencial, en teorı́a de probabilidades y fue uno de
los fundadores de la teorı́a de la elasticidad.
6
Johann Peter Gustav Lejeune Dirichlet (1805–59), sucesor de Gauss en la cátedra de
Göttingen. Es conocido sobre todo por sus trabajos sobre teorı́a del potencial (problema
de Dirichlet), por haber propuesto en 1837 la definición moderna de función y por haber
establecido de forma rigurosa las condiciones para la convergencia de las series de Fourier.
7
Georg Cantor (1845–1918), matemático ruso que pasó casi toda su vida en Alemania.
Tras algunos trabajos iniciales en teorı́a de números, comenzó a trabajar en análisis,
demostrando en 1870 la unicidad de la representación de una función mediante una
serie trigonométrica. Con posterioridad comenzó a desarrollar sus ideas sobre teorı́a de
conjuntos, que no tuvieron la aceptación que él esperaba, hasta que fueron reconocidas
en el Primer Congreso Internacional de Matemáticos en 1897. Por esas fechas Cantor
detectó las primeras paradojas en su teorı́a de conjuntos. Los últimos años de su vida se
vieron ensombrecidos por una enfermedad mental.
96 CAPÍTULO 3. SERIES DE FOURIER

integrables en (−π, π), incluso si no hay indicios claros para intuir estas
diferencias. Ası́ por ejemplo, la serie trigonométrica

& sen nx
, (3.1.7)
ln n
n=2

cuya representación gráfica aproximada (obtenida al sumar un número


finito de términos de la serie, en concreto 50) se ofrece en la Figura 3.1,
converge para todo valor de x, pero no es la serie de Fourier de ninguna
función integrable en (−π, π). La demostración de esta afirmación se pro-
pondrá como ejercicio una vez que se haya avanzado en el desarrollo de
la teorı́a de las series de Fourier. Finalmente indiquemos que el estudio
de las series trigonométricas y de las series de Fourier han seguido caminos
diferentes. Hemos de ser conscientes de que ambos tipos de series presentan
sus limitaciones, pero en el contexto de las aplicaciones fı́sicas, las series de
Fourier son la herramienta natural para representar funciones de manera
útil.

10

-6 -4 -2 2 4 6

-5

-10

Figura 3.1: Gráfica de los 50 primeros términos


de la serie trigonométrica (3.1.7).

3.2 Definiciones previas

Definición 1: sea f (x) una función de variable real. Diremos que el lı́mite
lateral por la derecha en x0 de f (x) es f (x0 +), y lo denotaremos

lim f (x + 0) ≡ f (x0 +) ≡ f (x0 + 0), 0 > 0, (3.2.1)


$→0
3.2. DEFINICIONES PREVIAS 97

si ∀0 > 0, ∃δ > 0 tal que si 0 < x − x0 < δ, entonces |f (x) − f (x0 +)| < 0.

f(xo -)

f(x o +)

xo

Figura 3.2: Función discontiua en x0 y lı́mites


laterales.

Análogamente se define el lı́mite lateral por la izquierda: diremos que


el lı́mite lateral por la izquierda en x0 de f (x) es f (x0 −), y lo denotaremos

lim f (x − 0) ≡ f (x0 −) ≡ f (x0 − 0), 0 > 0, (3.2.2)


$→0

si ∀0 > 0, ∃δ > 0 tal que si 0 < x0 − x < δ, entonces |f (x) − f (x0 −)| < 0. Si
la función es continua en x0 , entonces existen los lı́mites laterales y además
f (x0 +) = f (x0 −) = f (x0 ).
Definición 2: diremos que una función univaluada f (x) es continua a
trozos en el intervalo [a, b] si existe un número finito de puntos

a = x1 < x2 < · · · < xn = b

de modo que la función es continua en cada intervalo abierto (xi , xi+1 ) y


además existen los lı́mites laterales f (xi +) y f (xi+1 −).

f(x)

Figura 3.3: Ejemplo de función contı́nua a trozos.


98 CAPÍTULO 3. SERIES DE FOURIER

Nota: Obsérvese que si la función es continua a trozos en [a, b], entonces


necesariamente está acotada y es integrable en [a, b]. Es fácil mostrar que la
suma y el producto de funciones continuas a trozos es también una función
continua a trozos.

0.5

0.5 1 1.5 2

-0.5

-1

Figura 3.4: Ejemplo de función que no es contı́nua


a trozos (sen 20
x ).

Definición 3: las derivadas laterales de f (x) en x0 se definen como los


lı́mites siguientes:

a) Derivada por la derecha en x0 :

f (x0 + h) − f (x0 +)
f ! (x0 +) = lim , h > 0.
h→0 h

b) Derivada por la izquierda en x0 :

f (x0 −) − f (x0 − h)
f ! (x0 +) = lim , h > 0.
h→0 h

Está claro que si f (x) admite derivada en x0 , las derivadas laterales existen
y coinciden con f ! (x0 ). Pero la afirmación recı́proca no es cierta, como
demuestra el contraejemplo que se muestra en la Figura 3.5.
Observación: en el ejemplo que aparece representado en la Figura 3.5 se
verifica que f ! (0+) = 1 = f ! (0−), pero no existe8 f ! (0) ya que f (x) es
discontinua en x = 0.
8
No existe en el sentido de la teorı́a ordinaria de funciones, pero ya sabemos que sı́
existe en el sentido de las distribuciones.
3.2. DEFINICIONES PREVIAS 99

-2 -1 1 2

Figura 3.5: Ejemplo de función no derivable


en x = 0 que sı́ posee allı́ derivadas laterales.

Definición 4: diremos que f (x) es regular a trozos en [a, b] si tanto f (x)


como f ! (x) son continuas a trozos en [a, b].
Definición 5: una función es par si f (−x) = f (x), para todo x del dominio
de definición. La función se llamará impar si se tiene f (−x) = −f (x).
Las funciones pares tienen una gráfica simétrica respecto del eje de
ordenadas; las funciones impares tienen una gráfica simétrica respecto del
origen. Toda función puede ponerse como la suma de una función par y
otra impar:
1
f (x) = {[f (x) + f (−x)] + [f (x) − f (−x)]} ≡ fp (x) + fi (x). (3.2.3)
2
Las siguientes relaciones para las integrales de funciones pares e impares
en un intervalo simétrico se demuestran de manera trivial y son de gran
utilidad en la práctica.
Proposición 1: si fp (x) es una función par e integrable, entonces
1 a 1 a
fp (x) dx = 2 fp (x) dx, ∀ a ∈ R. (3.2.4)
−a 0

Si fi (x) es una función impar e integrable,


1 a
fi (x) dx = 0, ∀ a ∈ R. (3.2.5)
−a
100 CAPÍTULO 3. SERIES DE FOURIER

Definición 6: una función f (x) se dice que es periódica si existe un número


real positivo T tal que f (x + T ) = f (x), ∀ x ∈ R. El valor más pequeño
de T que cumple esta condición se llama perı́odo fundamental. Nótese que
si f (x) es periódica con perı́odo T , entonces nT , con n ∈ N, también es un
perı́odo de f (x).
Definición 7: diremos que una función f (x) es integrable en [a, b] si existe
la integral
1 b
|f (x)| dx < ∞. (3.2.6)
a

Se denota f (x) ∈ L1 ([a, b]).

Nota. Estamos suponiendo que el lector está familiarizado con el concepto


de integral de Riemann. Sabemos que f (x) es integrable Riemann en el
intervalo [a, b], con a y b finitos, si f (x) está acotada y es continua en casi
todo punto del intervalo (es decir, en todos los puntos excepto quizá en un
conjunto de medida nula. Ejemplos de conjuntos de medida nula son aque-
llos que contienen una colección finita o numerable de puntos). Si f (x) es
integrable, también lo es en módulo, pues la aplicación x → |x| es continua.
En realidad las funciones de L1 ([a, b]) son integrables en [a, b] en un sentido
un poco más general que el habitual de Riemann (llamado de Lebesgue),
pero toda función integrable Riemann en [a, b] está en L1 ([a, b]). Este con-
junto tiene unas pocas funciones que no son integrables en el sentido de
Riemann (pero éstas, en principio, presentan un interés fı́sico nulo) y las
siguientes propiedades:

1. L1 ([a, b]) es un espacio vectorial complejo, es decir, si f, g ∈ L1 ([a, b])


y α, β ∈ C, entonces αf (x) + βg(x) ∈ L1 ([a, b]).

2. f (x) ∈ L1 ([a, b]) si y sólo si |f (x)| ∈ L1 ([a, b]).

3. L1 ([a, b]) es un espacio normado y completo (se dice entonces que es


un espacio de Banach9 ) con la norma
1 b
||f ||L1 := |f (x)| dx.
a
9
Stefan Banach (1892–1945), matemático polaco fundador del moderno análisis
funcional, que efectuó relevantes contribuciones a la teorı́a de espacios vectoriales
topológicos, ası́ como a la teorı́a de la medida e integración. En su tesis doctoral de
1920 presentó la definición axiomática de los espacios que hoy llevan su nombre.
3.2. DEFINICIONES PREVIAS 101

4. C([a, b]), el espacio vectorial de las funciones continuas en [a, b], es


denso en L1 ([a, b]) con la topologı́a de L1 ([a, b]). Es, decir ∀0 > 0 y
∀f ∈ L1 ([a, b]), existe g ∈ C([a, b]) tal que ||f (x) − g(x)||L1 < 0.

5. Si a = −∞ y b = ∞, aún podemos definir el espacio L1 (R) (también


denotado como L(R) o L1 (−∞, ∞)). Estará formado por las fun-
ciones integrables de R a C (no valen integrales impropias o valores
princiales de Cauchy). El espacio L(R) tiene también las propiedades
1 a 3 anteriores.

No insistiremos aquı́ en que, para ser estrictos, las funciones que se usan
han de ser medibles en el sentido de Lebesgue, porque suponemos que este
concepto no es conocido por la mayor parte de los lectores, y porque las
funciones integrables Riemann lo son. En particular, toda función continua
a trozos (con saltos finitos) es medible en el sentido de Lebesgue.
Definición 8: la función f (x) se dice que es de cuadrado integrable en
[a, b] si existe la integral
1 b
|f (x)|2 dx, (3.2.7)
a

y se denota f (x) ∈ L2 ([a, b]).


Definiciones 9: consideremos una serie de funciones

&
fk (x) = f1 (x) + f2 (x) + · · · . (3.2.8)
k=1

a) Diremos que esta serie es convergente para un cierto valor x0 si existe


el lı́mite
n
&
lim fk (x0 ). (3.2.9)
n→∞
k=1

b) Diremos que la serie converge absolutamente en x0 si converge la serie


de los valores absolutos, es decir, si existe el lı́mite
n
&
lim |fk (x0 )|. (3.2.10)
n→∞
k=1

c) Diremos que la serie converge en [a, b] si converge ∀x ∈ [a, b] en el sentido


expresado en (3.2.9).
102 CAPÍTULO 3. SERIES DE FOURIER

d) Diremos que la serie converge uniformemente en [a, b] a una función s(x)


si ∀ 0 > 0, ∃ N tal que
2 2
2 &n 2
2 2
2s(x) − fk (x)2 < 0, ∀ n ≥ N, ∀ x ∈ [a, b]. (3.2.11)
2 2
k=1

Si una serie converge uniformemente en [a, b], entonces converge en [a, b],
pero el recı́proco no es cierto. Damos a continuación un criterio muy útil,
y a la vez sencillo, para verificar la convergencia uniforme de una serie de
funciones; es el llamado criterio M de Weierstrass:
Teorema 1: si la serie de números positivos M1 + M2 + M3 + · · · converge

&
y si además ∀ x ∈ [a, b], |fk (x)| ≤ Mk , entonces la serie fk (x) converge
k=1
absoluta y uniformemente en [a, b].
Demostración: como la serie numérica M1 + M2 + M3 + · · · converge, fijado " > 0, ∃ N
tal que si n > N , entonces MN +1 + MN +2 + · · · + Mn < ". Llamemos

sn (x) = f1 (x) + · · · + fn (x).

Tenemos lo siguiente

|sn (x) − sN (x)| = |sn (x) − sn−1 (x) + sn−1 (x) − sn−2 (x) + · · · + sN −1 (x) − sN (x)|
≤ |sn (x) − sn−1 (x)| + |sn−1 (x) − sn−2 (x)| + · · · + |sN −1 (x) − sN (x)|
= |fn (x)| + |fn−1 (x)| + · · · + |fN +1 (x)|
= ≤ Mn + Mn−1 + · · · + MN +1 < ", ∀ x ∈ [a, b].

Por tanto,
sup |sn (x) − sN (x)| < "
x∈[a,b]

y por el criterio de Cauchy, la sucesión sn (x) converge absoluta y uniformemente.

Recordaremos ahora dos teoremas de gran importancia.



&
Teorema 2: si los términos de la serie fn (x) son continuos en [a, b] y
n=1
en ese intervalo la serie es uniformemente convergente, entonces la suma de
la serie es continua y podemos integrar término a término:
1 b 9& ∞
: ∞ 1 b
&
fn (x) dx = fn (x) dx. (3.2.12)
a n=1 n=1 a
3.2. DEFINICIONES PREVIAS 103


&
Teorema 3: si la serie fn (x) converge, si las funciones fn! (x) existen
n=1

&
y si la serie fn! (x) converge uniformemente en [a, b], entonces podemos
n=1
derivar término a término:
9∞ : ∞
d & &
fn (x) = fn! (x). (3.2.13)
dx
n=1 n=1

Definición 10: sean f (x), g(x) y ω(x) tres funciones de [a, b] en R o en


C, siendo ω(x) ≥ 0. El producto escalar de f (x) con g(x), respecto de la
“función de peso” ω(x) es10
1 b
.f |g/ = f (x) g(x) ω(x) dx, (3.2.14)
a

siempre y cuando esta integral exista (para lo cual basta que f (x), g(x) y
ω(x) estén acotadas y sean continuas a trozos).
Definición 11: bajo las condiciones de la definición precedente, diremos
que f (x) y g(x) son ortogonales, respecto a la función de peso ω(x), si
.f |g/ = 0.
Definición 12: consideremos ahora {φn (x)} una sucesión (finita o infinita)
de funciones de [a, b] en R o en C. Diremos que esas funciones son orto-
gonales entre sı́, respecto de la función peso ω(x) ≥ 0, y que forman un
conjunto ortogonal en el intervalo [a, b] si

.φm |φn / = 0, ∀ m, n, m != n. (3.2.15)

Llamamos norma de la función φn (x) al número


8
6 1 b
||φn || = .φn |φn / = |φn (x)|2 ω(x) dx ≥ 0. (3.2.16)
a

Si se verifica que .φm |φn / = δm,n , siendo δm,n la delta de Kronecker11 ,


el sistema {φn (x)} se llama ortonormal . Nos interesa aquı́ un sistema
10
+f, g, ≡ +f |g,, siendo la última notación la habitual en Mecánica Cuántica.
11
Leopold Kronecker (1823–91), influyente matemático alemán.
104 CAPÍTULO 3. SERIES DE FOURIER

ortonormal muy concreto: el formado por las funciones


/ 0
1 cos x sen x cos 2x sen 2x
√ , √ , √ , √ , √ , ··· (3.2.17)
2π π π π π
consideradas en el intervalo [−π, π], o en [0, 2π], con función peso ω(x) = 1.
En efecto, es fácil verificar que estas funciones son ortonormales, pues para
m, n = 1, 2, . . . se verifica lo siguiente
1 π
cos mx cos nx dx = π δm,n ; (3.2.18)
−π
1 π
sen mx sen nx dx = π δm,n ; (3.2.19)
−π
1 π 1 π 1 π
sen mx cos nx dx = sen mx dx = cos mx dx = 0.(3.2.20)
−π −π −π

Para demostrar estas igualdades es útil recordar las siguientes relaciones


trigonométricas elementales:
cos(α − β) + cos(α + β)
cos α cos β = ; (3.2.21)
2
cos(α − β) − cos(α + β)
sen α sen β = ; (3.2.22)
2
sen (α − β) + sen (α + β)
sen α cos β = . (3.2.23)
2

3.3 Serie de Fourier asociada a una función

3.3.1 Obtención de la serie de Fourier mediante un proceso


de minimización

Dada una función f (x) integrable en el sentido de Riemann en [−π, π],


queremos ver si es posible representarla como una serie trigonométrica, es
decir, como una combinación lineal infinita de las funciones trigonométricas
(3.2.17), que hemos visto que forman un sistema ortonormal en [−π, π].
Teniendo esto en cuenta, escribiremos

a0 &
f (x) ∼ + (ak cos kx + bk sen kx) , (3.3.1)
2
k=1
3.3. SERIE DE FOURIER ASOCIADA A UNA FUNCIÓN 105

indicando con el sı́mbolo “∼” que a cada función f (x) le asociamos los
números {a0 , ak , bk }k∈N de una manera unı́voca que mostraremos a con-
tinuación. No usamos el signo “=” ya que, como veremos, la serie puede
converger o no a f (x). Respecto al término constante, por comodidad
resulta conveniente escribirlo como a0 /2.
Definamos la suma parcial n-ésima de la serie trigonométrica que tene-
mos en (3.3.1) como
n
a0 &
sn (x) = + (ak cos kx + bk sen kx) . (3.3.2)
2
k=1

Para determinar la forma de los coeficientes, impondremos una condición


bastante razonable: les exigiremos que sean tales que sn (x) sea la mejor
aproximación a f (x) en el sentido de los mı́nimos cuadrados. Dicho de otro
modo, los coeficientes han de ser tales que, para cada n fijo, minimicen el
valor de la integral
1 π
In (ak , bk ) = [f (x) − sn (x)]2 dx. (3.3.3)
−π

Obsérvese que esta integral In (ak , bk ) depende de un número finito de coe-


ficientes {a0 , ak , bk }nk=1 , que aún no se han determinado. Ası́ pues, tenemos
que resolver un problema de extremos. Para resolverlo fijamos el valor de n.
Recordemos que una condición necesaria para tener mı́nimo con respecto
a los parámetros {a0 , a1 , b1 , a2 , b2 , . . . , an , bn } es que las primeras derivadas
de In respecto de esos parámetros se anulen. Efectuando las derivadas
y teniendo en cuenta las relaciones de ortogonalidad entre las funciones
trigonométricas (3.2.18)–(3.2.20), tenemos:
1 π+ n
,
∂In a0 &
= − f (x) − − (ak cos kx + bk sen kx) dx
∂a0 −π 2
k=1
1 π
= − f (x) dx + πa0 ;
−π
1 + n
,
∂In π
a0 &
= −2 f (x) − − (ak cos kx + bk sen kx) cos lx dx
∂al −π 2
k=1
1 π
= −2 f (x) cos lx dx + 2πal ;
−π
106 CAPÍTULO 3. SERIES DE FOURIER

1 + n
,
∂In π
a0 &
= −2 f (x) − − (ak cos kx + bk sen kx) sen lx dx
∂bl −π 2
k=1
1 π
= −2 f (x) sen lx dx + 2πbl .
−π

Los valores de los coeficientes que anulan estas derivadas primeras son:
 1
 1 π


 ka = f (x) cos kx dx,
π −π
1 k = 0, 1, 2, . . . (3.3.4)


 1 π
 bk = f (x) sen kx dx,
π −π

Obsérvese que, por simetrı́a, se ha introducido un valor b0 = 0; además


podemos calcular mediante esta fórmula el coeficiente a0 que aparece como
a0 /2 en la serie (3.3.1). Fijémonos también que el resultado obtenido no
depende de n, luego seguirá siendo válido cuando n → ∞. Veamos final-
mente que estos valores proporcionan realmente un mı́nimo de In ; para ello,
analizamos la derivada segunda. Del resultado precedente, es inmediato que

∂ 2 In ∂ 2 In ∂ 2 In
= π, = = 2π, ∀ l ∈ N, (3.3.5)
∂a20 ∂a2l ∂b2l

y las demás derivadas de orden segundo o superior se anulan. Desarrollando


ahora en serie de Taylor las funciones In (ak , bk ) en torno a los valores que
hacen cero las derivadas primeras (3.3.4) tenemos:

In (ak + ∆ak , bk + ∆bk ) =


) n $ 2 2 %*
1 & ∂ 2 In 22 ∂ 2I 2
n 2 (∆bk )2
= In (ak , bk ) + (∆ak )2 +
2! ∂a2k 2min ∂b2l 2min
k=0
) n
*
(∆a0 )2 & 3 4
= In (ak , bk ) + π + (∆ak ) + (∆bk )
2 2
≥ In (ak , bk ).
2
k=1

Por tanto el valor mı́nimo se obtiene para los valores de ak y bk que tenemos
en las fórmulas (3.3.4), que se llaman coeficientes de Fourier de f (x). La
serie trigonométrica que se obtiene con ellos es la serie de Fourier de f (x).
Nota importante: el hecho de representar f (x) mediante una serie de
Fourier no implica que esta serie converja a f (x) en cada punto del intervalo
3.3. SERIE DE FOURIER ASOCIADA A UNA FUNCIÓN 107

que se está considerando. Este problema de convergencia se estudiará más


adelante.

Ejemplo 1: consideremos la función f (x) = | sen x| que es periódica, con


perı́odo 2π. Usando las fórmulas obtenidas para los coeficientes de Fourier
(3.3.4), se puede comprobar que en este caso

4
bk = 0, a0 = , a1 = 0, 


π 
k = 2, 3, 4, . . . (3.3.6)
2(1 + (−1)k ) 

ak = , 

π(1 − k 2 )

Por tanto la serie de Fourier de esta función es



2 4 & cos 2kx
f (x) ∼ + . (3.3.7)
π π 1 − 4k 2
k=1

En la Figura 3.6 se representa la mencionada función | sen x| (en trazo


grueso), ası́ como la suma de los dos primeros términos de su serie de
Fourier (en lı́nea discontinua), y de la suma de los cinco primeros términos
(en trazo normal). Obsérvese que ya con cinco términos la aproximación
de la serie de Fourier a la función original es realmente muy buena.

0.5

-4 -2 2 4

Figura 3.6: Gráfica de | sen x| y de la suma de


varios términos de su serie de Fourier.
108 CAPÍTULO 3. SERIES DE FOURIER

3.3.2 Obtención alternativa de los coeficientes de Fourier

Los coeficientes de Fourier (3.3.4) se suelen deducir de otra manera. Supon-


gamos que f (x) tiene perı́odo 2π y que admite un desarrollo:

a0 &
f (x) = + (ak cos kx + bk sen kx) .
2
k=1

Si damos por válido que la serie puede integrarse término a término (ve-
remos con posterioridad cuáles son las condiciones suficientes para poder
hacer ésto), tenemos:
1 π & ∞ 1 π
a0
f (x) dx = 2π + (ak cos kx + bk sen kx) dx = a0 π. (3.3.8)
−π 2 −π
k=1

Hemos usado los resultados de (3.2.20). Por otro lado, multiplicando f (x)
por cos lx y por sen lx e integrando, se obtiene lo siguiente:
1 π 1
a0 π
f (x) cos lx dx = cos lx dx
−π 2 −π
&∞ 1 π
+ (ak cos kx + bk sen kx) cos lx dx = πal ;
k=1 −π

1 π 1 π
a0
f (x) sen lx dx = sen lx dx
−π 2 −π
∞ 1
& π
+ (ak cos kx + bk sen kx) sen lx dx = πbl .
k=1 −π

Se han tenido en cuenta las expresiones (3.2.18)–(3.2.20). Como vemos,


se obtienen las fórmulas para los coeficientes de Fourier ya halladas en
(3.3.4). Este puede ser un método fácil para deducir las fórmulas en caso
de no recordarlas con exactitud.

3.3.3 Coeficientes de Fourier para funciones pares e impares

Fijémonos que si fp (x) es una función par definida en el intervalo [−π, π], las
integrales que permiten calcular bk en (3.3.4) se anulan por tener integrando
3.3. SERIE DE FOURIER ASOCIADA A UNA FUNCIÓN 109

antisimétrico, y la serie de Fourier será simplemente



a0 &
fp (x) ∼ + ak cos kx. (3.3.9)
2
k=1

Por otro lado, si fi (x) es una función impar definida en el mismo intervalo,
son todos los coeficientes ak los que se anulan, y su serie de Fourier será

&
fi (x) ∼ bk sen kx. (3.3.10)
k=1

Conviene tener en cuenta que para una función no periódica su serie de


Fourier (que es una expresión periódica) puede ser una buena representación
en el intervalo [−π, π], pero fuera de ese intervalo la función y la serie no
tendrán, en principio, nada que ver la una con la otra (para mayor claridad,
véase el Ejemplo 2 expuesto más adelante).
Otra forma diferente de analizar este mismo asunto es suponer que la
función de partida f (x) está sólamente definida en [−π, π] (o en (−π, π) si
ası́ nos conviene mejor, ya que no hay ninguna diferencia desde el punto de
vista de la integración), y que se extiende a toda la recta real R (salvo quizá
algunos puntos) por periodicidad. Desde este punto de vista, si partimos
de una función f (x) definida sólo en (0, π), podemos extenderla a todo R de
dos maneras diferentes, de forma par o impar del siguiente modo: definimos
las extensiones pares e impares en el intervalo (−π, π) como
)
f (x), 0 < x < π,
fp (x) :=
f (−x), −π < x < 0,
)
f (x), 0 < x < π,
fi (x) :=
−f (−x), −π < x < 0,
y en el resto de R por periodicidad: fµ (x+2nπ) = fµ (x), µ = p, i; x ∈ [a, b].

Ejemplo 2: la función f (x) = x2 no es periódica, de manera que si eva-


luamos su serie de Fourier en [−π, π], la expresión que resulta sólo describe
adecuadamente a la función en ese intervalo; fuera de él representa una
función diferente: la extensión periódica de f (x) = x2 . En la Figura 3.7
aparecen dibujadas la función f (x) = x2 y su extensión periódica fuera de
[−π, π].
110 CAPÍTULO 3. SERIES DE FOURIER

15

10

!3 " !2 " !" " 2" 3"

Figura 3.7: La función x2 en trazo continuo y su serie


de Fourier en trazo discontinuo.

Efectuando los cálculos pertinentes, la serie de Fourier es en este caso


& (−1)k
π2
x =
2
+4 cos kx, x ∈ [−π, π]. (3.3.11)
3 k2
k=1

En la Figura 3.8 aparecen representadas tres curvas correspondientes a


diversas sumas finitas de esta serie de Fourier (3.3.11). Se puede observar
que al ir tomando más términos las sumas parciales se van aproximando
cada vez mejor bien al valor exacto de la función (ya para 30 términos la
aproximación es realmente muy satisfactoria).

6
3 sumandos

4 6 sumandos

30 sumandos
2

-4 -2 2 4

Figura 3.8: Tres sumas parciales de la serie de


Fourier de x2 .
3.3. SERIE DE FOURIER ASOCIADA A UNA FUNCIÓN 111

3.3.4 Coeficientes de Fourier en forma compleja

En ocasiones interesa obtener la representación de una función en serie de


Fourier compleja del tipo (3.1.2); para determinarla basta usar la serie de
Fourier real ya vista y hacer en ella las substituciones:
eikx − e−ikx eikx + e−ikx
sen kx = , cos kx = . (3.3.12)
2i 2
Efectuando los cálculos, se obtiene como resultado lo siguiente:

a0 &
f (x) ∼ + (ak cos kx + bk sen kx)
2
k=1
∞ $ ! " ! "%
a0 & ikx ak − ibk ak + ibk
= + e + e−ikx
2 2 2
k=1
∞ '
& (
= c0 + ck eikx + c−k e−ikx ,
k=1

siendo
1
a0 1 π
c0 := = f (x) dx,
2 2π −π
1
ak − ibk 1 π
ck := = f (x) e−ikx dx,
2 2π −π
1
ak + ibk 1 π
c−k := = f (x) eikx dx, k = 1, 2, . . .
2 2π −π

En forma abreviada,

& 1
1 π
f (x) ∼ ck eikx
; ck = f (x) e−ikx dx, k ∈ Z. (3.3.13)
2π −π
k=−∞

3.3.5 Coeficientes de Fourier para un intervalo genérico [a, b]

Hasta ahora hemos considerado, de forma aritraria, funciones definidas en


el intervalo [−π, π] (o en (−π, π)). Ahora bien, en las aplicaciones puede
ocurrir (y de hecho es lo que normalmente sucede) que tengamos que consi-
derar un intervalo genérico de la recta real [a, b]. Afortunadamente podemos
112 CAPÍTULO 3. SERIES DE FOURIER

reducir este nuevo problema al ya estudiado sin más que realizar un sencillo
cambio de variable lineal. En efecto, si hacemos
b+a b−a
x= + t, (3.3.14)
2 2π
el intervalo a ≤ x ≤ b se transforma en −π ≤ t ≤ π y la función f (x) se
transforma en $ %
b+a b−a
f (x) = f + t := F (t), (3.3.15)
2 2π
que se define ∀ t ∈ R al extenderla fuera de [−π, π] por periodicidad. Ahora
se calcula la serie de Fourier de F (t):

a0 &
F (t) ∼ + (ak cos kt + bk sen kt)
2
k=1
con 1
1 π
ak = F (t) cos kt dt;
π −π
1 π
1
bk = F (t) sen kt dt.
π −π
El último paso de este proceso consiste en deshacer el cambio de variable,
pasando de t a x, lo que nos proporciona el desarrollo de la función f (x)
en el intervalo [a, b]:
∞ / ! " ! "0
a0 & kπ(2x − b − a) kπ(2x − b − a)
f (x) ∼ + ak cos + bk sen ,
2 b−a b−a
k=1
(3.3.16)
donde
1 b $ % 
2 kπ(2x − b − a) 
ak = f (x) cos dx,  

b−a a b−a 
$ % k = 0, 1, 2, . . .
1 b 

2 kπ(2x − b − a) 
bk = f (x) sen dx, 
b−a a b−a
(3.3.17)
Es frecuente que el intervalo sea simétrico, de la forma [−', '], en cuyo caso
el resultado precedente adopta la forma siguiente:
∞ / $ % $ %0
a0 & kπx kπx
f (x) ∼ + ak cos + bk sen , (3.3.18)
2 ' '
k=1
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 113

con
1 %
$ 
1 "
kπx 
ak = f (x) cos dx, 


' −" '
1 $ % k = 0, 1, 2, . . . (3.3.19)
1 " kπx 

bk = f (x) sen dx, 

' −" '

3.4 Convergencia de las series de Fourier

Analizaremos a continuación la parte técnicamente más complicada de este


capı́tulo: la referida a determinar la convergencia de la serie de Fourier
asociada a una función. Estudiaremos tres tipos diferentes de convergencia
de las series de Fourier: convergencia en media, convergencia puntual y
convergencia uniforme.

3.4.1 Convergencia en media

Sea f (x) una función real continua a trozos en [−π, π] y que se extiende a
todo R por periodicidad. Consideremos la suma parcial n-ésima de la serie
de Fourier asociada (3.3.2)
n
a0 &
sn (x) = + (ak cos kx + bk sen kx) , (3.4.1)
2
k=1

donde {ak , bk } son los coeficientes de Fourier de f (x).

Definición 13: diremos que la serie de Fourier de f (x) converge en media


a f (x) si
1 π
lim [f (x) − sn (x)]2 dx = 0. (3.4.2)
n→∞ −π

Es inmediato ver que


1 π
0 ≤ [f (x) − sn (x)]2 dx
−π
1 π 1 π 1 π
= f (x) dx − 2
2
f (x)sn (x) dx + s2n (x) dx. (3.4.3)
−π −π −π
114 CAPÍTULO 3. SERIES DE FOURIER

Pero usando (3.4.1) y la definición de los coeficientes de Fourier (3.3.4),


tenemos lo siguiente
1 π 1
a0 π
f (x)sn (x) dx = f (x) dx +
−π 2 −π
&n / 1 π 1 π 0
+ ak f (x) cos kx dx + bk f (x) sen kx dx
k=1 −π −π

& n
a20 π
= +π (a2k + b2k ).
2
k=1

Por otro lado,


1 1 ) n
*2
π π
a0 &
s2n (x) dx = + (ak cos kx dx + bk sen kx) dx
−π −π 2
k=1
' a (2 n
&
0
= 2π +π (a2k + b2k ).
2
k=1

Por tanto, teniendo en cuenta estos dos resultados previos, la desigualdad


(3.4.3) se puede reescribir en la forma
n 1
a20 & 2 1 π
+ (ak + b2k ) ≤ f 2 (x) dx, ∀ n ∈ N. (3.4.4)
2 π −π
k=1

Ası́ pues, como la sucesión que aparece en el término de la izquierda está


acotada, en el lı́mite n → ∞ tendremos
∞ 1
a20 & 2 1 π
+ (ak + b2k ) ≤ f 2 (x) dx, (3.4.5)
2 π −π
k=1

expresión que se conoce con el nombre de desigualdad de Bessel 12 , y que


nos permite enunciar el siguiente resultado.
Teorema 4: para toda función f (x) ∈ L2 ([−π, π]) la suma de los cuadrados
de sus coeficientes de Fourier es una serie convergente.
12
Friedrich Wilhelm Bessel (1784–1846), astrónomo alemán. Realizó el primer estudio
sistemático de las funciones que llevan su nombre (que serán estudiadas en un capı́tulo
posterior) cuando realizaba un estudio sobre el movimiento de los planetas.
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 115

Demostración: es inmediata de la desigualdad de Bessel.


Corolario: lim |ak | = lim |bk | = 0.
k→∞ k→∞

De la demostración de la desigualdad de Bessel se sigue que si la serie


de Fourier converge en media a f (x), entonces en lugar de una desigualdad
en (3.4.3) tenemos una igualdad estricta, la relación de Parseval 13 :
∞ 1
a20 & 2 1 π
+ (ak + b2k ) = f 2 (x) dx, (3.4.6)
2 π −π
k=1

Teorema 5: la serie de Fourier de una función f (x) ∈ L2 ([−π, π]) converge


en media, y por tanto verifica la relación de Parseval.
No daremos aquı́ la demostración, pero conviene indicar que se trata de
un resultado importante ya que hay funciones cuyas series de Fourier no
convergen en el sentido ordinario (punto a punto) pero lo hacen en media.
La demostración de este teorema enlaza con la teorı́a de espacios de Hilbert
y se reduce a demostrar que el conjunto ortonormal dado en (3.2.17)
/ 0
1 cos x sen x cos 2x sen 2x
√ , √ , √ , √ , √ , ··· .
2π π π π π

es completo.

3.4.2 Convergencia puntual

Supongamos que f (x) es una función continua a trozos y de perı́odo 2π,


cuya serie de Fourier es

a0 &
f (x) ∼ + (ak cos kx + bk sen kx) .
2
k=1

Consideremos las sumas parciales n-ésimas de la serie; usando la definición


de los coeficientes de Fourier (3.3.4) podemos deducir lo siguiente:
n
a0 &
sn (x) = + (ak cos kx + bk sen kx)
2
k=1
13
Marc-Antoine Parseval des Chênes (1755–1836), matemático francés.
116 CAPÍTULO 3. SERIES DE FOURIER

1 n 1
1 π
1& π
= f (y) dy + f (y) [cos ky cos kx + sen ky sen kx] dy
2π −π π
k=1 −π
1 + n
,
1 π 1 &
= f (y) + cos[k(y − x)] dy. (3.4.7)
π −π 2
k=1
A continuación usamos la identidad trigonométrica (3.2.23). Tomando allı́
α = a/2 y β = ka, tenemos:
a
2 sen cos ka = sen [(k + 12 )a] − sen [(k − 12 )a] .
2
Por tanto
+ n
, n
a 1 & a & a
2 sen + cos ka = sen + 2 sen cos ka
2 2 2 2
k=1 k=1
n
&
a
= sen + 2 { sen [(k + 12 )a] − sen [(k − 12 )a]}
2
k=1

a 3a a (2n + 1)a (2n − 1)a


= sen + sen − sen + · · · + sen − sen
2 2 2 2 2
(2n + 1)a
= sen .
2
Ası́ pues,
! "
(2n + 1)
n sen (y − x)
1 & 2
+ cos[k(y − x)] = $ % , (3.4.8)
2 y−x
k=1 2 sen
2
que es una función de perı́odo 2π, llamada núcleo de Dirichlet. Obsérvese
además que haciendo y − x = s e integrando se llega a
1 E F 1 ) n
*
1 π sen (n + 12 )s 1 π 1 &
ds = + cos ks ds = 1. (3.4.9)
π −π 2 sen 2s π −π 2
k=1
Volviendo a la forma (3.4.7) de sn (x) y usando (3.4.8):
1 E F
1 π sen (n + 12 ) (y − x)
sn (x) = f (y) dy
π −π 2 sen y−x
2
1 E F
1 π−x sen (n + 12 )s
= f (s + x) ds. (3.4.10)
π −π−x 2 sen 2s
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 117

De la primera igualdad, y debido a la periodicidad del núcleo de Dirich-


let, se deduce que sn (x + 2π) = sn (x). Por hipótesis, f (x) tiene también
perı́odo 2π, al igual que el núcleo de Dirichlet. Por tanto el integrando del
último término de (3.4.10) es también periódico, y entonces el intervalo de
integración puede ser desplazado de [−π − x, π − x] a [−π, π], es decir:
1 E F
1 π sen (n + 12 )s
sn (x) = f (s + x) ds, (3.4.11)
π −π 2 sen 2s
que es la llamada fórmula de Dirichlet para la suma parcial sn (x). Esta
expresión nos va a permitir establecer condiciones bajo las cuales se puede
garantizar la convergencia puntual de la serie de Fourier.
Para demostrar el teorema de la convergencia puntual necesitamos un
resultado que enunciaremos a continuación sin demostrarlo:
Lema de Riemann-Lebesgue: si g(x) es una función continua a trozos
en el intervalo [a, b], entonces
1 b
lim g(x) sen λx dx = 0. (3.4.12)
λ→∞ a

Se puede demostrar el mismo resultado suponiendo que g(x) ∈ L1 ([a, b]), o


también que g(x) ∈ L2 ([a, b]).
Teorema 6: si f (x) es una función de R a C regular a trozos14 en [−π, π]
y de perı́odo 2π, entonces, ∀ x ∈ R la serie de Fourier de f (x) converge a

a0 & 1
+ (ak cos kx + bk sen kx) = [f (x+) + f (x−)]. (3.4.13)
2 2
k=1

Por tanto, en todos aquellos puntos x0 donde la función f (x) es continua,


la serie de Fourier converge al valor f (x0 ); no ocurre lo mismo en los puntos
de discontinuidad: allı́ la serie de Fourier no converge al valor de la función
sino a la semisuma de los lı́mites laterales.
Demostración: retomamos la fórmula de Dirichlet para sn (x) (3.4.11):
1 E F
1 π
sen (n + 12 )s
sn (x) = f (s + x) ds
π −π 2 sen 2s
1 E F 1 E F
1 0
sen (n + 12 )s 1 π
sen (n + 12 )s
= f (s + x) ds + f (s + x) ds
π −π 2 sen 2s π 0 2 sen 2s
= I1 (x, n) + I2 (x, n).
14
Recuérdese que esta regularidad implica que la derivada existe y es continua a trozos.
118 CAPÍTULO 3. SERIES DE FOURIER

Pero
1 E F
1 0
sen (n + 12 )s
I1 (x, n) = [f (x−) − f (x−) + f (s + x)] ds
π −π 2 sen 2s
1 E F 1 ! "
f (x−) 0
sen (n + 12 )s 1 0
f (s + x) − f (x−) 1
= ds + sen (n + )s ds
π −π 2 sen 2s π −π 2 sen 2s 2
1 E 1
F 1 ! " ! "
π 0
f (x−) sen (n + 2
)s 1 f (s + x) − f (x−) 1
= ds + sen (n + )s ds.
2π −π 2 sen 2s π −π 2 sen 2s 2
Ya hemos visto en (3.4.9) que la primera integral vale π. Por otro lado, la función
! "
f (s + x) − f (x−)
2 sen 2s
es continua a trozos. En efecto, el único problema podrı́a estar en s = 0, pero
! " ! "
f (s + x) − f (x−) f (x + s) − f (x−) s/2
lim = lim = f $ (x−), (3.4.14)
s→0− 2 sen 2s s→0− s sen 2s
que existe pues hemos supuesto que f (x) es regular a trozos. Por tanto, podemos aplicar
el lema de Riemann-Lebesgue a I1 (x, n):
1 0 ! " ! "
f (x−) 1 f (s + x) − f (x−) 1 f (x−)
lim I1 (x, n) = + lim sen (n + )s ds = .
n→∞ 2 π n→∞ −π 2 sen 2s 2 2
(3.4.15)
Análogamente se demuestra que
f (x+)
lim I2 (x, n) = , (3.4.16)
n→∞ 2
con lo cual el lim sn (x) nos da efectivamente el importante resultado que ya enunciamos
n→∞
en el teorema:

a0 & 1
+ (ak cos kx + bk sen kx) = [f (x+) + f (x−)].
2 2
k=1

3.4.3 Convergencia uniforme

En la Definición 9 d) de la segunda sección de este capı́tulo hemos explicado


lo que se entiende por convergencia uniforme de una serie de funciones en
un cierto intervalo [a, b]. En este apartado se ofrecen dos resultados que nos
dan información más precisa sobre la convergencia uniforme de las series
de Fourier. El primero es el siguiente:
Teorema 7: sea f (x) una función continua de R a C de perı́odo 2π y sea
f ! (x) continua a trozos en [−π, π]. La serie de Fourier de f (x) converge
absoluta y uniformemente a f (x).
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 119

El mismo resultado es válido si f (x) sólo está definida en el intervalo [−π, π)


y f (−π) = f (π), ya que esto permite extender la función de forma periódica
y continua a todo R.
Demostración: haremos uso del criterio M de Weierstrass que ya estudiamos como
teorema 1 de este tema. Tenemos que analizar la convergencia uniforme de la serie

a0 &
+ (ak cos kx + bk sen kx) .
2
k=1

El criterio M de Weierstrass nos dice que esta serie converge absoluta y uniformemente
en [−π, π] (y por tanto también puntualmente) si podemos encontrar unas constantes
positivas Mk , k = 1, 2, . . . tales que
|ak cos kx + bk sen kx| ≤ Mk , ∀ x ∈ [−π, π],
siendo, además, M1 + M2 + M3 + · · · una serie convergente. Veamos que, en efecto,
podemos construir esta serie numérica convergente. En primer lugar, consideremos las
series de Fourier de f (x) y f $ (x):

a0 &
f (x) ∼ + (ak cos kx + bk sen kx) , (3.4.17)
2
k=1

ã0 & ' (



f $ (x) ∼ + ãk cos kx + b̃k sen kx . (3.4.18)
2
k=1

Los coeficientes de cada serie se calculan usando las bien conocidas fórmulas (3.3.4). En
particular,
1 π
1 1 1
ã0 = f $ (x) dx = [f (x)]π−π = [f (π) − f (−π)] = 0,
π −π π π
ya que f (x) es continua en [−π, π] y periódica. Los otros coeficientes se calculan análo-
gamente, integrando por partes:
1 π / 1 π 0
1 1
ãk = f $ (x) cos kx dx = [f (x) cos kx]π−π + k f (x) sen kx dx
π −π π −π

1
= [f (π) cos kπ − f (−π) cos kπ + kπbk ] = k bk ;
π
1 π / 1 π 0
1 1
b̃k = f $ (x) sen kx dx = [f (x) sen kx]π−π − k f (x) cos kx dx = −k ak .
π −π π −π

Ası́ pues, podemos acotar de manera trivial utilizando estos resultados y obtenemos:
|ãk | |b̃k |
|ak cos kx + bk sen kx| ≤| ak | + |bk | = + := Mk .
k k
Falta probar que la suma de estas constantes Mk , que acabamos de definir, converge.
Pero eso se sigue con facilidad de lo siguiente:
$ %2
1 1 2|ãk |
0≤ |ãk | − = |ãk |2 + − ,
k k2 k
120 CAPÍTULO 3. SERIES DE FOURIER

de modo que
|ãk | 1 1 1 1 1 1
≤ |ãk |2 + = (ãk )2 + .
k 2 2 k2 2 2 k2
Lo mismo es válido con b̃k en lugar de ãk , de modo que
1 1 1 1 1 1
Mk ≤ (ãk )2 + + (b̃k )2 + ,
2 2 k2 2 2 k2
pero entonces

& ∞ ∞
1 & & 1
Mk ≤ [(ãk )2 + (b̃k )2 ] + < ∞,
2 k2
k=1 k=1 k=1

pues la segunda de las series suma ζ(2) = π 2 /6 y la primera es convergente en virtud


de la desigualdad de Bessel (3.4.5). Observemos que se verifica la desigualdad de Bessel
porque al ser f $ (x) continua a trozos en [−π, π], también lo es (f $ (x))2 , y en consecuencia
f $ (x) ∈ L2 ([−π, π]), con lo que se le puede aplicar el resultado del teorema 4. Con esto
queda demostrado el teorema.

Se pueden demostrar teoremas similares al que acabamos de probar,


imponiendo menos exigencias sobre la función f (x); por ejemplo, se puede
prescindir de la continuidad:
Teorema 8: sea f (x) una función regular a trozos en [−π, π] y de perı́odo
2π. Su serie de Fourier converge uniformemente a f (x) en cualquier inter-
valo cerrado que no contenga ningún punto de discontinuidad.
Estrechamente relacionada con la convergencia uniforme de las series de
Fourier se encuentra una curiosa propiedad que pasamos a comentar para
concluir esta sección.

3.4.4 Fenómeno de Gibbs

Se denomina ası́ al hecho de que las sumas parciales de una serie de Fourier
no puedan aproximarse uniformemente a f (x) en intervalos en los que la
función presente discontinuidades. El primero en demostrar la existencia
de este tipo de fenómenos fue un matemático irlandés poco conocido de
nombre Wilbraham, en 1848, aunque su trabajo pasó completamente de-
sapercibido. Fue el fı́sico estadounidense Michelson15 quien, de forma ca-
sual, redescubrió este hecho en 1898. Michelson habı́a diseñado un aparato,
15
Albert Abraham Michelson (1852–1931), premio Nobel de Fı́sica en 1907, bien cono-
cido por la realización del famoso experimento de Michelson-Morley para determinar la
existencia del éter. Edward Williams Morley (1838-1923) fue un destacado quı́mico y
fı́sico estadounidense.
3.4. CONVERGENCIA DE LAS SERIES DE FOURIER 121

llamado “analizador armónico”, que era capaz de obtener gáficamente, y de


modo automático, los 80 primeros coeficientes de la serie de Fourier de una
función dada. Al tratar de recomponer con ellos la gráfica de una función
sencilla, tipo escalón de Heaviside, observó una separación extraña en las
cercanı́as del punto en el que se produce el salto (véase por ejemplo la Figura
3.9 que aparece un poco más adelante). Sorprendentemente esta pequeña
separación no desaparecı́a al tomar más términos en la aproximación. En
principio, atribuyó este problema a un fallo en el mecanismo del aparato,
y le comentó el suceso a Gibbs16 , quien investigó el fenómeno y le dio una
explicación, aunque sin dar realmente una demostración, en un artı́culo
publicado en la revista Nature en 1899. Sus comentarios apuntaban a la
falta de convergencia uniforme de la serie de Fourier en las proximidades
del punto de discontinuidad como responsable del fenómeno observado por
Michelson. Posteriormente se pudo probar rigurosamente que en las cer-
canı́as de un punto de discontinuidad a de una función f (x), la serie de
Fourier sobreestima el valor de esta función en el punto a en una cantidad
que es del orden de
1
D ∞
sen x D
dx = −0.2811 ,
π π x π

siendo D = f (a+) − f (a−) la magnitud del salto de la función en la dis-


continuidad a.

0.5

-4 -2 2 4

-0.5

Figura 3.9: El fenómeno de Gibbs aparece en


torno a los puntos de discontinuidad.
16
Josiah Willard Gibbs (1839–1903), eminente fı́sico matemático estadounidense.
122 CAPÍTULO 3. SERIES DE FOURIER

Ejemplo 3: consideremos la función periódica que vale 1 entre 0 y π, y −1


entre −π y 0 (y que se extiende fuera del intervalo periódicamente). Usando
(3.3.4) se puede determinar la serie de Fourier asociada a esta función, que
resulta ser:

4 & sen (2k − 1)x
f (x) ∼ . (3.4.19)
π 2k − 1
k=1
En la Figura 3.9 hemos representado la suma de veinte términos de esta
serie de Fourier, y se puede apreciar que en las proximidades de los puntos
de discontinuidad de la función original (los múltiplos de π) las sumas
parciales de la serie de Fourier (3.4.19) no se van haciendo arbitrariamente
pequeñas: estamos frente al fenómeno de Gibbs. Para profundizar un poco
más en los detalles, en el problema 29 propuesto al final de este capı́tulo se
pide realizar un estudio cuantitativo de este ejemplo.

3.5 Derivación e integración de series de Fourier

En contra de lo que ingenuamente se pudiera pensar, la derivación término


a término de una serie de Fourier no es admisible de modo general. Un
resultado que da información en esta dirección es el siguiente:
Teorema 9: sea f (x) una función continua en el intervalo [−π, π] que veri-
fica f (−π) = f (π) y sea f ! (x) una función regular a trozos en ese intervalo.
La serie de Fourier de f ! (x) puede obtenerse derivando término a término
la serie de Fourier de f (x). La serie ası́ obtenida converge puntualmente a
f ! (x).
Demostración: está implı́cita en la del teorema 7. En efecto, allı́ probamos que si

a0 &
f (x) ∼ + (ak cos kx + bk sen kx)
2
k=1

entonces
ã0 & ' (
∞ ∞
&
f $ (x) ∼ + ãk cos kx + b̃k sen kx = (−kak sen kx + kbk cos kx) ,
2
k=1 k=1

que es precisamente el resultado que se obtiene al derivar término a término la serie de


Fourier de f (x).

Nótese que la convergencia puntual de la nueva serie es la siguiente:



& 1
k (−ak sen kx + bk cos kx) = [f ! (x+) + f ! (x−)], (3.5.1)
2
k=1
3.5. DERIVACIÓN E INTEGRACIÓN DE SERIES DE FOURIER 123

pudiendo ser x un punto de discontinuidad de f ! (x) (es aquı́ donde se precisa


la regularidad a trozos de f ! (x)).
La integración término a término de una serie de Fourier es posible en
condiciones mucho menos restrictivas que la derivación término a término.
A diferencia de la integración de series de funciones genéricas, en este caso
no se exige la convergencia uniforme.
Teorema 10: sea ϕ(x) una función continua a trozos en [−π, π] y de
perı́odo 2π. La serie de Fourier de ϕ(x)

A0 &
ϕ(x) ∼ + (Ak cos kx + Bk sen kx) ,
2
k=1

sea o no convergente, puede integrarse término a término entre dos lı́mites


cualesquiera.
Demostración: queremos probar que
1 q 1 q & ∞ 1 q
A0
ϕ(x) dx = dx + (Ak cos kx + Bk sen kx) dx
p p 2 p
k=1

& 1 ∞
A0
= (q − p) + [Ak ( sen kq − sen kp) − Bk (cos kq − cos kp)] .
2 k
k=1

Para obtener este resultado, definamos la función


1 x ! "
A0
F (x) = ϕ(t) − dt, (3.5.2)
0 2
que es continua, por ser ϕ(x) continua a trozos. Además su derivada
A0
F $ (x) = ϕ(x) − , (3.5.3)
2
es continua a trozos. Pero, más aún, por ser ϕ(x) de perı́odo 2π
1 x ! " 1 x+2π ! "
A0 A0
F (x + 2π) = ϕ(t) − dt + ϕ(t) − dt
0 2 x 2
1 π ! " 1 π
A0
= F (x) + ϕ(t) − dt = F (x) + ϕ(t) dt − πA0 = F (x),
−π 2 −π

es decir, F (x) tiene también perı́odo 2π. Por tanto, como F (x) es continua, de perı́odo
2π y con derivada continua a trozos, según el teorema 7, admite una serie de Fourier que
converge absoluta y uniformemente:

α0 &
F (x) = + (αk cos kx + βk sen kx) .
2
k=1
124 CAPÍTULO 3. SERIES DE FOURIER

Estableciendo un paralelismo entre la notación allı́ usada y la que hemos adoptado ahora,
hemos de efectuar los cambios siguientes:

Teorema 7 → Teorema 10
f (x) → F (x)
ak → αk
bk → βk
A0
f $ (x) → ϕ(x) −
2
ãk = kbk → Ak = kβk
b̃k = −kak → Bk = −kαk

Por tanto

α0 & 1
F (x) = + (−Bk cos kx + Ak sen kx) .
2 k
k=1

Por otro lado, de la definición (3.5.2):


1 x
A0
F (x) = − x+ ϕ(t) dt. (3.5.4)
2 0

Ası́ pues,
1 ∞
x
A0 α0 & 1
ϕ(t) dt = x+ + (−Bk cos kx + Ak sen kx) , (3.5.5)
0 2 2 k
k=1

y finalmente, como 1 1 1
q q p
ϕ(t) dt = ϕ(t) dt − ϕ(t) dt,
p 0 0

y tras reordenar las series (cosa que se puede hacer porque hay convergencia absoluta),
se obtiene
1 q & 1 ∞
A0
ϕ(t) dt = (q − p) + [Ak ( sen kq − sen kp) − Bk (cos kq − cos kp)] ,
p 2 k
k=1

que es lo que se querı́a demostrar.

3.6 Series de Fourier de funciones de varias varia-


bles

En caso de tener que efectuar el análisis armónico de una función de varias


variables, la teorı́a es completamente análoga a la presentada para las fun-
ciones de una variable real. Indicamos los resultados para funciones de
dos variables, por su utilidad al estudiar las ecuaciones diferenciales en
3.6. SERIES DE FOURIER EN VARIAS VARIABLES 125

derivadas parciales. El resultado esencial es el del siguiente teorema, que


únicamente enunciamos:
Teorema 11: consideremos una función f (x, y) continua definida en el
cuadrado C = [−π, π] × [−π, π] de R2 , con derivadas parciales ∂x f (x, y) y
∂y f (x, y) acotadas en C. En esta situación, la serie de Fourier, que en forma
compleja escribiremos

&
f (x, y) ∼ cm,n ei(mx+ny) , (3.6.1)
m,n=−∞
1 1
1
cm,n = f (x, y) e−i(mx+ny) dx dy, m, n ∈ Z, (3.6.2)
4π 2 C

converge a f (x, y) en todo punto interior de C para el que exista un entorno


en el que las parciales segundas ∂xy f (x, y) existan. Si f (x, y) tiene perı́odo
2π en x e y y presenta derivadas parciales continuas ∂x f (x, y), ∂y f (x, y),
∂xy f (x, y), entonces la serie de Fourier de f (x, y) converge a f (x, y) en todo
punto del plano.
Si manejamos funciones que poseen diferentes perı́odos en las variables x
e y, habrá que hacer los correspondientes cambios de variable para obtener
el desarrollo. En particular, si f (x, y) está definida en el rectángulo
R = {x ∈ [−l, l], y ∈ [−h, h]},
con perı́odos 2l en la variable x y 2h en y, efectuamos los cambios de variable
u = πx/l, v = πy/h, con lo que la función f (lu/π, hv/π) ≡ ϕ(u, v) tiene
perı́odo doble de 2π. Se desarrolla ϕ(u, v) y se deshace el cambio, con lo
que llegamos a

& mx
+ ny
f (x, y) ∼ cm,n eiπ( l h
)
, (3.6.3)
m,n=−∞
1 1
1 mx
+ ny
cm,n = f (x, y) e−iπ( l h
)
dx dy; m, n ∈ Z. (3.6.4)
4lh R

Los coeficientes cm,n tienen parte real y parte imaginaria, de modo que
al llevarlos a (3.6.3) resulta una función real. Estos desarrollos en serie de
Fourier se pueden escribir usando exclusivamente funciones trigonométricas
reales, aunque las expresiones resultan más complicadas que la forma com-
pleja comentada con anterioridad, por lo que remitimos al lector interesado
en ellas a la bibliografı́a recomendada al final del capı́tulo.
126 CAPÍTULO 3. SERIES DE FOURIER

3.7 Comentarios finales

A lo largo de este tema hemos demostrado o enunciado un buen número de


teoremas, con hipótesis muy variadas, referidos a propiedades de conver-
gencia de las series de Fourier. Estas hipótesis pueden relajarse aún más,
siendo quizá el resultado más fuerte el siguiente:
Teorema 12 (de Dirichlet): si f (x) está definida y acotada en (−π, π)
y si tiene un número finito de máximos y mı́nimos, y también un número
finito de discontinuidades, siendo además periódica con perı́odo 2π fuera
de (−π, π), entonces la siguiente serie trigonométrica converge a

a0 & f (x+) + f (x−)
+ (ak cos kx + bk sen kx) = . (3.7.1)
2 2
k=1

con ak y bk dadas por (3.3.4).


Otra versión de este teorema es la siguiente:
Teorema 13: sea f (x) absolutamente integrable en (−π, π) y de perı́odo
2π. Si en el intervalo (a, b) la función f (x) es de variación acotada, entonces
∀ x ∈ (a, b) la serie converge a
1
[f (x+) + f (x−)].
2
En general, las funciones que aparecen en las aplicaciones fı́sicas suelen ve-
rificar las condiciones de algunos de los teoremas enunciados anteriormente.

Antes de finalizar este capı́tulo queremos insistir en un detalle: ha de


quedar claro que dada una función f (x), para la cual podemos calcular la
serie de Fourier asociada a ella, puede ocurrir que esa serie no converja a
la función en algunos puntos. Esta observación debe hacer que en ciertas
situaciones procedamos con cautela y analicemos de manera cuidadosa los
resultados que obtengamos de nuestros cálculos. A tı́tulo de ejemplo, se
sabe que existen funciones continuas cuyas series de Fourier divergen en
un punto dado, o incluso en un conjunto de puntos no numerable y denso
en (−π, π). Ciertamente, se trata de funciones muy patológicas. A pe-
sar del comentario anterior, es cierto que la serie de Fourier de cualquier
función continua converge puntualmente casi por doquier a la función, ex-
cepto posiblemente en un conjunto de medida nula. Por otro lado, Kol-
3.8. PROBLEMAS 127

mogorov17 demostró en 1926 que existen funciones integrables cuya serie


de Fourier diverge en todo punto. Además, la convergencia no se conserva
en operaciones simples: por ejemplo, existe al menos una función f (x) que
tiene serie de Fourier uniformemente convergente, pero es tal que la serie
de Fourier de [f (x)]2 diverge en un conjunto de puntos que es infinito no
numerable. Algo similar les ocurre a otra función y a su valor absoluto.

3.8 Problemas
1. Sea f : R → C una función de perı́odo 2π. Pruébese que ∀ α, β ∈ R se
verifica: 1 α+2π 1 β+2π
f (x) dx = f (x) dx.
α β

2. Dada una función que verifica f (−x) = f (x) y f (x + π) = −f (x), demués-


trese que sus coeficientes de Fourier bk , a2k (k = 0, 1, 2, . . .) son nulos.
3. Hállese el desarrollo en serie de Fourier de las funciones que siguen en los
intervalos que se indican. Se recomienda hacer una gráfica de cada una
para poder analizar correctamente la convergencia de las series a la función
correspondiente.

a) f (x) = x2 , [−π, π]; b) f (x) = |x|, [−π, π];

c) f (x) = | sen x|, [−π, π]; d) f (x) = x, (−π, π);

e) f (x) = ecos x cos( sen x); f ) f (x) = x2 , (0, 2π);

g) f (x) = x, (0, 2π); h) f (x) = senh x, (−1, 1).

4. Desarróllese f (x) = Ax2 + Bx + C en (−π, π).


5. Desarróllese f (x) = 1 en el intervalo (0, π), en serie de senos.

 cos πx , 0 ≤ x ≤ l/2,
6. Desarróllese f (x) = l en serie de cosenos.

0, l/2 < x ≤ l,
17
Andrei Nicolaievich Kolmogorov (1903–87), destacado matemático ruso cuyo trabajo
influyó notablemente diversas ramas de la matemática moderna. En concreto contribuyó
a formular la teorı́a de probabilidades de manera tal que pasó a ser considerada como una
parte del análisis matemático y también realizó importantes contribuciones a la teorı́a de
los sistemas dinámicos.
128 CAPÍTULO 3. SERIES DE FOURIER
)
x, 0 ≤ x ≤ l/2,
7. Desarróllese f (x) = en serie de senos.
l − x, l/2 < x ≤ l,
8. Desarróllese f (x) = eax en (−π, π), siendo a != 0.
9. Desarróllese f (x) = cos ax en (−π, π), siendo a ∈
/ Z.
10. Desarróllese f (x) = − ln |2 sen (x/2)|, en [−π, π].
11. Desarróllese f (x) = ln |2 cos(x/2)| en [−π, π].
)
cos x, 0 < x < π,
12. Desarróllese f (x) = en serie de Fourier compleja.
1, −π < x < 0,
13. Desarróllese la función de Heaviside H(x) en serie de Fourier en (−L, L).
14. Establezcanse las siguientes “representaciones” de la δ de Dirac:
∞ $ %
1 1 & nπ
a) δ(x) = + cos x ;
2L L n=1 L

∞ $ % $ %
2 & nπ nπ
b) δ(x − µ) = sen x sen µ ; 0 < µ < L.
L n=1 L L

15. Calcúlese la serie de Fourier de la función f (x) = |x|3 en (−1, 1), y también
de sus cuatro primeras derivadas. Analı́cense con cuidado los resultados.
16. Hállense las relaciones entre los coeficientes de las series de Fourier cuando
éstas se expresan en las tres formas más usuales:

a0 &
a) Serie trigonométrica: + (an cos(ωn x) + bn sen(ωn x)).
2 n=1

&
b) Serie compleja: cn e−iωn x .
n=−∞

a0 &
c) Serie de amplitudes y fases: + hn cos(ωn x − φn ).
2 n=1

En todos los casos ωn = 2πn/T , siendo T el perı́odo.


17. Evalúese el espectro de amplitud y de fase de la función
)
a, x ∈ [−τ /2, τ /2],
f (x) =
0, x ∈ [−T /2, −τ /2) ∪ (τ /2, T /2],

siendo T el perı́odo de la función.


3.8. PROBLEMAS 129

18. Desarróllese la función ex en serie de Fourier compleja primero en el intervalo


(−π, π) y también en (0, 1).
19. Evalúese la serie de Fourier compleja asociada a la extensión periódica de
la función )
1, 0 ≤ x < h,
f (x) =
0, h ≤ x < 2π,
y obténgase luego ese desarrollo en forma real (h=cte.)
20. Considérese la siguiente función definida en el intervalo [−π, π)


 0, −π ≤ x < 0,


f (x) = x + 1, 0 ≤ x < π/2,




2x, π/2 ≤ x < π,
y que se extiende a R por periodicidad: f (x + 2π) = f (x). Discútase la
convergencia de la serie de Fourier de f (x).
21. Calcúlese la suma de las series siguientes
cos 2x cos 3x cos 4x cos(n + 1)x
a) + + + ··· + + ···
1·2 2·3 3·4 n(n + 1)

cos 2x cos 3x cos 4x cos nx


b) − + + · · · + (−1)n 2 + ···
3 8 15 n −1
2 cos 2x 3 cos 3x 4 cos 4x n cos nx
c) − + + · · · + (−1)n 2 + ···
3 8 15 n −1
22. Un punto se mueve en lı́nea recta con una velocidad inicial u. Esta velocidad
recibe incrementos constantes de valor u a intervalos de tiempo iguales τ .
Demuéstrese que la velocidad en cualquier instante t posterior al comienzo
del movimiento es

u ut u & 1 2mπt
+ + sen ,
2 τ π m=1 m τ

y que la distancia recorrida es



ut uτ uτ & 1 2mπt
(t + τ ) + − 2 cos .
2τ 12 2π m=1 m2 τ

23. Pruébese que, en (−π, π), la serie de Fourier de f (x) = x no converge


uniformemente, pero que sı́ lo hace la de f (x) = x2 . En el mismo intervalo,
encuéntrese la serie de Fourier de f (x) = x4 integrando la de f (x) = x2
entre los lı́mites 0 y x.
130 CAPÍTULO 3. SERIES DE FOURIER

24. Considérese la siguiente función definida en el intervalo [−π, π)




 (x + π)2 , −π ≤ x < 0,




 π2 , 0 ≤ x < π/3,
f (x) =

 8, π/3 ≤ x < 2π/3,





5, 2π/3 ≤ x < π,

y que se extiende a R por periodicidad: f (x + 2π) = f (x). Discútase la


convergencia de la serie de Fourier de f (x). Determı́nense los valores de x
en los cuales la serie no converge a f (x) y calcúlese los valores a los que
converge.
25. Demuéstrese que la serie trigonométrica
&∞
sen nx
n=2
ln n

converge para todo valor de x, pero no es la serie de Fourier de ninguna


función integrable en (−π, π).
26. Un oscilador armónico amortiguado unidimensional que está sometido a la
acción de una fuerza externa obedece la ecuación
d2 x dx
m +γ + k x = f (t).
dt2 dt
Usando series de Fourier, hállese el valor de x(t) cuando f (t) es una fuerza
periódica. En particular, supóngase que f (t) es la onda triangular que surge
de la extensión periódica de
)
2at/T, 0 ≤ t < T /2,
f (x) =
2a(1 − t/T ), T /2 ≤ t < T.

27. Una corriente alterna I(t) = I0 sen(ωt) pasa a través de


a) Un rectificador de media onda, el cual transmite la corriente sólo
cuando fluye en el sentido positivo.
b) Un rectificador de onda completa, que transmite el valor absoluto ins-
tantáneo de la corriente.
En ambos casos, hállese la dependencia temporal de la corriente de salida.
28. Determı́nese la serie de Fourier doble de

a) f (x, y) = x sen y, −π < x, y < π. b) f (x, y) = ex+y , −π < x, y < π.


3.8. PROBLEMAS 131

29. En el problema 5 se ha calculado la serie de Fourier la función signo (x) en


el intervalo (−π, π), y resulta ser

4 & sen ((2n + 1)x)
signo (x) ∼ .
π n=0 2n + 1

La función es discontinua en x = 0, luego ahı́, su serie de Fourier presentará


el fenómeno de Gibbs. Pruébese que cerca de x = 0, y para x > 0, las sumas
parciales de la serie de Fourier superan el valor de la función en un cantidad
finita que no tiende a cero al tomar más y más términos en la suma.
30. Pruébese que el lugar geométrico de los puntos dados por la ecuación

&∞
(−1)n+1
sen nx sen ny = 0
n=1
n2

divide al plano en cuadrados de área π 2 .


31. Encuéntrese la ubicación en el plano del conjunto de rectas y arcos de elipse
que forman el lugar geométrico de los puntos determinados por la ecuación

&∞
(−1)n+1
sen nx cos ny = 0.
n=1
n3

32. Calcúlese la serie de Fourier de la función f (x) = |x|3 en (−1, 1), y también
la serie de Fourier de sus cuatro primeras derivadas. Analı́cense con cuidado
los resultados. Recuérdese que las gráficas de las funciones suelen ayudar a
entender mejor el problema.
33. Considérese la función f (x) = (x + π)x(x − π).
a) Dibújese con precisión esta función en toda la recta real, determinando
sus puntos crı́ticos.
b) Calcúlese el desarrollo en serie de Fourier de la función f (x) en el intervalo
[−π, π].
c) Dibújese en R la gráfica del desarrollo en serie obtenido y compárese con
la representada en el apartado a).
d) ¿Qué puede decirse respecto de la serie de Fourier de

g(x) = x(x − π)(x − 2π)?

34. Dibújese la función |sen 2x|. Calcúlese su serie de Fourier comentando dónde
converge o no converge la serie de Fourier a la función, y dónde se presenta
el fenómeno de Gibbs.
132 CAPÍTULO 3. SERIES DE FOURIER

35. Dibújese la función f (x) = π 2 − x2 y calcúlese su serie de Fourier en el inter-


valo [−π, π]. Dibújese la gráfica de la serie de Fourier obtenida. ¿Aparece
en este caso el fenómeno de Gibbs?
36. Una onda triangular viene descrita por la extensión periódica de la función
)
x, 0 ≤ x ≤ π,
f (x) =
−x, −π ≤ x ≤ 0.

Dibújese esta onda y calcúlese su serie de Fourier. ¿Para qué valores de la


recta real la serie de Fourier converge a la extensión periódica de la función?
¿En qué puntos se producirá el fenómeno de Gibbs?
37. Considérese la función f (x) = e−|x| en [π, π] y que se extiende periódica-
mente al resto de la recta real.
a) Dibújese con precisión esta onda, indicando los puntos donde no es deri-
vable.
b) Calcúlese su serie de Fourier.
c) Utilı́cese el resultado anterior para hallar la suma de las series

& ∞
&
1 1
α= ; β= .
n=0
(2n)2 + 1 n=0
(2n + 1)2 + 1

Se sugiere dar a x ciertos valores numéricos en la expresión de la serie de


Fourier.
38. Considérese la extensión periódica de la función
)
x, 0 ≤ x < π,
f (x) =
0, −π < x ≤ 0.

Dibújese esta onda y calcúlese su serie de Fourier. ¿Para qué valores de la


recta real la serie de Fourier converge a la extensión periódica de la función?
¿En qué puntos se producirá el fenómeno de Gibbs? Dando a x un cierto
valor, calcúlese la suma de la serie

& 1
λ(2) = ,
n=1
(2n − 1)2

que está relacionada con la función ζ(2).


39. Desarróllese en serie de Fourier compleja la función
2 2
f (x) = 21 − x2 2 , −π ≤ x ≤ π.

40. Hállese la serie de Fourier de senh x, en el intervalo [−1, 1].


3.9. BIBLIOGRAFÍA 133

41. Dada la función de perı́odo 2' > 2




 0 si −' <x< −1,


f( (x) = 1 si −1 < x < 1,




0 si 1 < x < ',

realı́cese una gráfica de la misma. Determı́nese la serie de Fourier asociada


a esta función (a veces se denomina espectro de amplitudes a la sucesión de
los coeficientes de Fourier). Analı́cese mlo que sucede cuando consideramos
el lı́mite ' → ∞.
42. Evalúense los desarrollos en serie de Fourier de cada una de las funciones
que siguen en el intervalo 0 < x < π:

a) sen2 x.

b) cos2 x.

c) senx cos x.

d) cos x + cos 2x.

e) cos x cos 2x.

3.9 Bibliografı́a
1. Broman, A, Introduction to Partial Differential Equations from Fourier Se-
ries to Boundary-value Problems, Addison-Wesley, 1970.
2. Butkov, E., Mathematical Physics, Addison-Wesley, 1968.
3. Carslaw, G.P., An Introduction to the Theory of Fourier’s Series and Inte-
grals, Dover, 1950.
4. Churchill, R.V., Series de Fourier y problemas de contorno, Ediciones del
Castillo, 1966.
5. Churchill, R.V., Operational Mathematics, McGraw-Hill, 1972.
6. Edwards, R.E., Fourier Series. A Modern Introduction, Springer, 1979.
7. Edwards Jr., C.H. y Penney, D.E., Ecuaciones diferenciales elementales y
problemas con condiciones en la frontera, Prentice-Hall Hispanoamericana,
1993.
8. Hsu, H. P., Análisis de Fourier , Fondo Educativo Interamericano, 1973.
134 CAPÍTULO 3. SERIES DE FOURIER

9. Myint-U, T., Partial Differential Equations of Mathematical Physics, Else-


vier, 1973.
10. Ross, S.L., Ecuaciones diferenciales, Reverté, 1981.
11. Spiegel, M.R., Análisis de Fourier , McGraw-Hill, 1976.
12. Tolstov, G.P., Fourier Series, Dover, 1976.
13. Whittaker, E.T. and Watson, G.N., A Course of Modern Analysis, Cam-
bridge Univ. Press, 1988.
Capı́tulo 4

LA TRANSFORMACIÓN
DE FOURIER

4.1 Introducción

El uso de las series de Fourier tuvo un impacto enorme en las matemáticas


del siglo XIX, en particular para resolver ecuaciones diferenciales en deri-
vadas parciales (si bien se seguı́a insistiendo en la obtención de soluciones
en forma cerrada, es decir, en términos de funciones elementales y de sus
integrales). En este capı́tulo vamos a estudiar uno de los métodos más
útiles para resolver ecuaciones en derivadas parciales en forma cerrada: el
que hace uso de la integral de Fourier .
Al estudiar las series de Fourier hemos visto que a una función definida
en el intervalo [a, b], y que verifique ciertas condiciones de regularidad, le
podemos asociar una serie de Fourier. Esta serie de Fourier representa de
forma bastante adecuada a la función en [a, b]; si la función no es periódica,
fuera de ese intervalo, la serie representa no a la función sino a su extensión
periódica (véase el ejemplo 2 del capı́tulo precedente). Ahora bien, si lo que
queremos es representar correctamente en toda la recta real una función
definida en R y que no es periódica, no podemos esperar encontrar una
serie de Fourier que lo consiga. Lo que habrá que hacer es generalizar
de alguna manera la idea fundamental que nos sirvió para introducir las
series de Fourier. Esto se consigue definiendo la llamada transformación
de Fourier que permite que una función que toma valores en toda la recta

135
136 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

real sea representada por una integral, en lugar de por una serie. Como
veremos, estas integrales son, en muchos aspectos, análogas a las series de
Fourier. La idea básica de esta generalización se debe a Fourier, Cauchy y
Poisson, siendo difı́cil asignar a uno de ellos la prioridad del descubrimiento,
pues los tres presentaron diversas comunicaciones orales sobre el tema en
la Académie des Sciences de Paris en la segunda decena del siglo XIX.
La transformación de Fourier es una de las herramientas más útiles en
el campo de la matemática aplicada, y su conocimiento y buen uso re-
sulta fundamental para todo cientı́fico teórico o aplicado, ya que aparece
una y otra vez en los campos más diversos, por ejemplo en electromag-
netismo, en óptica (donde existe una rama denominada óptica de Fourier)
o en aplicaciones técnicas, sin olvidar el uso esencial que de ella se hace en
mecánica cuántica. En los últimos años han surgido interesantes desarro-
llos matemáticos relacionados con este tema, como son la transformada de
Fourier discreta, la transformada de Fourier rápida y la teorı́a de onditas
(wavelets en inglés y ondelettes en francés), todos ellos implementables de
forma numérica y con interesantes aplicaciones prácticas.

4.2 De las series de Fourier a la transformación


de Fourier

En primer lugar vamos a mostrar un camino intuitivo o heurı́stico de llegar,


de forma natural, a la definición de la transformada de Fourier de una
función. Los argumentos que exponemos a continuación son, en esencia,
los que ofrecieron Fourier, Cauchy y Poisson en sus trabajos originales.
Supongamos que tenemos una función f" (x) definida en el intervalo
[−', '] que se extiende de forma periódica a toda la recta real. Ya hemos
visto en la ecuación (3.3.18) del capı́tulo anterior que su serie de Fourier es

∞ / $ % $ %0
a0 & kπx kπx
f" (x) = + ak cos + bk sen . (4.2.1)
2 ' '
k=1

Como ya conocemos los detalles referentes a la convergencia de las series


de Fourier, en lo sucesivo prescindimos de poner el sı́mbolo ∼ y utilizamos
sin más la igualdad. Sabemos también que esta ecuación puede escribirse
4.2. DE LAS SERIES A LA TRANSFORMACIÓN DE FOURIER 137

en forma compleja como


∞ ;
& < ∞
&
f" (x) = c0 + ck eikπx/" + c−k e−ikπx/" = cn einπx/" . (4.2.2)
k=1 n=−∞

Los coeficientes complejos cn se calculan haciendo uso de la expresión


1
1 "
cn = f" (x) e−inπx/" dx, n ∈ Z. (4.2.3)
2' −"

Imaginemos ahora que procedemos a ampliar la anchura del intervalo en


el que estamos efectuando el desarrollo, [−', ']. Dicho de un modo más
técnico, queremos ver que ocurre con las expresiones anteriores cuando
consideramos el lı́mite ' → ∞. A primera vista podrı́a parecer que cn → 0,
pero esto no es tan inmediato. Utilicemos una argucia para ver que la
anterior conjetura no es estrictamente cierta: introduzcamos una nueva
variable k = nπ/'. Para dos valores de n adyacentes, la variación en la
variable k es
(n + 1)π nπ π
∆k = − = . (4.2.4)
' ' '
Con esta notación, podemos reescribir (4.2.2) del siguiente modo:

&∞ $ %
' cn
f" (x) = ei(nπ/")x ∆k, (4.2.5)
n=−∞
π

siendo 1
' cn 1 "
= f" (x) e−i(nπ/")x dx. (4.2.6)
π 2π −"

Pasemos ahora completamente a la notación en la variable k, haciendo


desaparecer el ı́ndice n. Para ello llamemos c" (k) al coeficiente (' cn /π) de
la fórmula precedente:
1 "
1
c" (k) = f" (x) e−ikx dx. (4.2.7)
2π −"
&
f" (x) = c" (k) eikx ∆k. (4.2.8)
k

Si ahora pasamos al lı́mite ' → ∞, entonces ∆k → 0 (de modo que la varia-


ble k deja de tomar valores discretos y pasa a ser una variable continua), y
138 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

f" (x) → f (x), ya que la extensión periódica deja paso a la función original.
Con esto, (4.2.7) nos proporciona
1 ∞
1
c(k) ≡ lim c" (k) = f (x) e−ikx dx, (4.2.9)
"→∞ 2π −∞

y la suma que aparece en (4.2.8) se convierte en una integral:


1 ∞
f (x) = lim f" (x) = c(k) eikx dk. (4.2.10)
"→∞ −∞

Estas dos ecuaciones nos sirven para definir la transformación de Fourier.


En esencia, este es el proceso intuitivo que liga las series de Fourier con la
transformación que lleva el mismo nombre.

Ejemplo 1: en los gráficos que siguen se ilustra lo que acabamos de comen-


x2
tar, representando por un lado la función básica f (x) = 16 e− 40 (x2 +4x+4)
y por otro lado diversas funciones f" (x) obtenidas de ella a partir del in-
tervalo [−', '] repetido periódicamente, para ' = 10, 20, 30, 40.

2
fHxL
1

-75 -50 -25 25 50 75

2
f10 HxL
1

-75 -50 -25 25 50 75


4.2. DE LAS SERIES A LA TRANSFORMACIÓN DE FOURIER 139

2
f20 HxL
1

-75 -50 -25 25 50 75

2
f30 HxL
1

-75 -50 -25 25 50 75

2
f40 HxL
1

-75 -50 -25 25 50 75

Una vez que hemos comentado la relación que existe entre las series de
Fourier y la transformación de Fourier, en la siguiente sección daremos, de
manera más formal, las definiciones que manejaremos en lo sucesivo.
140 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

4.3 Definición de la transformación de Fourier

Definición 1: dada una función real o compleja f (x), definida para valores
x ∈ R, se introduce una nueva función (dependiente de una variable real
que llamaremos k), denominada la transformada de Fourier de la función
f (x), como sigue:
1 ∞
1
F{f (x)} ≡ F{f } ≡ F (k) := √ f (x) e−ikx dx. (4.3.1)
2π −∞
La transformada de Fourier inversa de una función F (k) se define
1 ∞
−1 −1 1
F {F (k)} ≡F {F } ≡ f (x) := √ F (k) eikx dk. (4.3.2)
2π −∞

Observación 1. Si bien las variables x y k son reales, la presencia de


las exponenciales imaginarias hace que en general, aún cuando la función
f (x) sea real, su transformada de Fourier tenga una parte real y una parte
imaginaria.

Observación 2. De las fórmulas (4.3.1) y (4.3.2) se sigue de modo inmedi-


ato lo siguiente:
1 ∞ 1 ∞
1 1
F (0) = √ f (x) dx; f (0) = √ F (k) dk. (4.3.3)
2π −∞ 2π −∞
Vemos ası́ que la transformada de Fourier de una función f (x) contiene
información valiosa acerca de esa función. Esto resulta ser muy útil e
interesante, y no sólo por darnos el valor de la integral de la función. En
las aplicaciones fı́sicas se recurre muchas veces a estudiar la transformada
de Fourier cuando la función es demasiado complicada. Los resultados son
a veces sorprendentes, por la simplificación que se logra.

Observación 3. Otras consecuencias inmediatas de las definiciones ante-


riores son las siguientes
1 ∞ 1 ∞
1 1
|F (k)| ≤ √ |f (x)| dx; |f (x)| ≤ √ |F (k)| dk. (4.3.4)
2π −∞ 2π −∞
La primera desigualdad nos está acotando el valor absoluto de la función
transformada de Fourier de f (x) mediante la integral del valor absoluto de
la propia f (x); la segunda desigualdad establece la acotación recı́proca.
4.3. DEFINICIÓN DE LA TRANSFORMACIÓN DE FOURIER 141

Observación 4. Las definiciones que hemos √ dado se basan en los resulta-


dos de la sección precedente. La aparición de 2π en los denominadores es
debida al deseo de que las fórmulas de la transformación de Fourier y de su
inversa sean simétricas. En algunos libros pueden encontrarse definiciones
equivalentes, que presentan diferentes factores, o incluso discrepancias al
definir esta pareja de transformaciones en el signo del exponente ±ik. Estos
pequeños cambios no son relevantes para la utilidad de esta operación que
acabamos de definir. Ahora bien, hay que ser cauto y no mezclar resultados
obtenidos usando diferentes definiciones, pues el resultado final serı́a incor-
recto (debido a la presencia de factores numéricos inadecuados), y además
completamente confuso a la hora de buscarle una interpretación.

Observación 5. Normalmente se utilizan las variable x y k, y letras


minúsculas y sus correspondientes mayúsculas para las funciones originales
y sus transformadas. No obstante, téngase en cuenta que la denominación
de las variables dependiente e independiente es algo totalmente secundario:
lo importante es saber que esta operación que hemos definido, y que hemos
llamado transformación de Fourier, lo que hace es actuar sobre funciones
para darnos otras funciones. Estas ideas quedarán más claras cuando se
estudien algunos conceptos de análisis funcional en el Capı́tulo 13, donde
realizaremos un estudio más profundo y exahustivo de la transformación
de Fourier.

Observación 6. Una de las primeras preguntas realmente serias que nos


podemos plantear se refiere a la existencia de la integral (4.3.1) que sirve
de definición. Una condición suficiente (no necesaria) para que esa integral
exista es que la función sea integrable en R, es decir f (x) ∈ L1 (R):
1 ∞
|f (x)| dx < ∞. (4.3.5)
−∞

En este caso la integral existe porque es el producto de una función acotada


e±ikx por una función integrable, f (x). Bajo esta condición, la función
F (k) es continua, acotada y tiende a 0 cuando |k| →∞ . Mediante el uso
de otras técnicas matemáticas, la existencia de la integral se puede probar
para situaciones mucho más generales.

Observación 7. Existen tablas que nos proporcionan transformadas de


Fourier directas e inversas de buen número de funciones sin necesidad de
efectuar el cálculo de la integral. Cuando se utilicen estas tablas, debe
142 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

prestarse especial atención a la definición de transformación de Fourier que


el autor esté utilizando. También existen programas de cálculo simbólico
(como Mathematica) que realizan este tipo de operaciones de forma exacta.
Observación 8. Las fórmulas (4.3.1) y (4.3.2), además de lo visto en
la sección precedente, parecen sugerir que si primero calculamos la trans-
formada de Fourier de una función f (x) usando (4.3.1), y luego hacemos
la transformación inversa de ésta última, recuperamos la función origi-
nal. Esto es algo que habrá de ser justificado de manera más precisa, ya
que los argumentos aportados en la sección precedente fueron puramente
heurı́sticos. Nos ocuparemos de esta cuestión en la sección siguiente.

4.4 El teorema de la integral de Fourier

Para verificar si es cierto que al invertir la transformación de Fourier re-


cuperamos la función original, consideremos el resultado de (4.3.1) e intro-
duzcámoslo en (4.3.2), con la salvedad de no igualarlo automáticamente a
f (x), pues es ésto precisamente lo que queremos probar:
1 ∞
−1 1
F {F{f }}(x) = √ F (k) eikx dk
2π −∞
1 ∞ 1 ∞
1
= eikx dk f (y) e−iky dy
2π −∞ −∞
1 ∞ 1 ∞
1
= dk f (y) eik(x−y) dy
2π −∞ −∞
1 ∞ 1 ∞
1
= dk f (y) cos[k(x − y)] dy
2π −∞ −∞
1 1 ∞
1 ∞
= dk f (y) cos[k(x − y)] dy. (4.4.1)
π 0 −∞

Para llegar a este resultado hemos usado el hecho de que cos[k(x − y)] y
sen [k(x − y)] son dos funciones respectivamente par e impar en la variable
k. Además, si f (x) es integrable, el teorema de Fubini1 debe ser válido
aquı́. La igualdad (4.4.1) sirve para demostrar el llamado teorema de la
integral de Fourier , que nos limitamos a enunciar:
1
Guido Fubini (1879–1943), matemático italiano.
4.4. EL TEOREMA DE LA INTEGRAL DE FOURIER 143

Teorema: si f (x) es una función absolutamente integrable en R (es decir,


se cumple (4.3.5)) y regular a trozos en todo intervalo finito, entonces
1 /1 ∞ 0
1 ∞ f (x+) + f (x−)
dk f (y) cos[k(x − y)] dy = . (4.4.2)
π 0 −∞ 2

En los puntos de continuidad de f (x)se obtiene como resultado precisa-


mente el valor de f (x). Obsérvese la similitud existente entre este resultado
y el correspondiente a la convergencia puntual de las series de Fourier. La
demostración del teorema discurre por unas lı́neas similares a las de la de-
mostración del teorema de la convergencia puntual de las series de Fourier,
y hace uso de un resultado análogo al Lema de Riemann-Lebesgue (aunque
la integral se ha de extender ahora a toda la recta real R).

Ejemplo 2: siendo α ∈ R, se puede calcular de forma sencilla la transfor-


mada de Fourier de )
0, x < 0,
f (x) =
e−αx , x ≥ 0.
En efecto, usando la definición (4.3.1) hallamos lo siguiente
1 ∞ 1 ∞
1 −ikx 1 1 1
F (k) = √ f (x) e dx = √ e−αx e−ikx dx = √ .
2π −∞ 2π 0 2π α + ik

La transformada de Fourier inversa se calcula usando (4.3.1), pero los


cálculos son más complicados y es preciso recurrir al teorema de los resid-
uos, de la teorı́a de variable compleja, para evaluar la integral que aparece.
El resultado que se obtiene al hacer el cálculo correctamente (lo cual se
deja como ejercicio para el lector interesado) es el siguiente:

 0, x < 0,

F −1 [F (k)](x) = 1
2 x = 0,


e−αx , x > 0.

Observemos que no se recupera exactamente la función f (x); esto es debido


a que la función original no era continua, sino continua a trozos, de manera
que en el punto de discontinuidad x = 0 se recupera la semisuma de los
lı́mites laterales, en concordancia con el teorema de la integral de Fourier.
Otra manera de interpretar este resultado es el siguiente: en teorı́a de
la integración se consideran idénticas dos funciones que difieren tan sólo
144 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

en un conjunto de medida nula (y un conjunto finito o numerable lo es).


Según ésto, en general una función f (x) está definida, salvo los valores que
pueda tomar en un conjunto de medida nula, y desde este punto de vista
las funciones anteriores f (x) y F −1 [F (k)](x) son idénticas.

4.5 Propiedades fundamentales

Las siguientes propiedades de la transformación de Fourier pueden de-


mostrarse con relativa facilidad y se proponen como ejercicios para el lector:

1. Linealidad: sean F (k) = F{f (x)} y G(k) = F{g(x)}, entonces se


verifica

F{αf (x) + βg(x)} = αF (k) + βG(k), ∀ α, β ∈ R o C. (4.5.1)

2. Propiedad de desplazamiento:

F{f (x − a)} = e−ika F (k), a ∈ R. (4.5.2)

3. Cambio de escala:
1
F{f (ax)} = F (k/a), a ∈ R − {0}. (4.5.3)
|a|

4. Si la función f (x) es real, entonces F (−k) = F (k).


5. Si f (x) es real y par, F (k) es real; si f (x) es real e impar, F (k) es
imaginaria pura.
6. F{f (x) eax } = F (k + ai).
7. Si aplicamos de forma consecutiva la transformación de Fourier re-
sulta lo siguiente:

F 2 {f (x)} ≡ F{F{f (x)}} = f (−x); (4.5.4)


F 4 {f (x)} ≡ F{F{F{F{f (x)}}}} = f (x). (4.5.5)

Ası́ pues, la transformación de Fourier es tal que aplicada repetida-


mente cuatro veces nos da la identidad, y si la aplicamos dos veces
seguidas, recuperamos la función original reflejada respecto del eje de
ordenadas (es decir, cambiando x por −x).
4.5. PROPIEDADES FUNDAMENTALES 145

8. Transformada de Fourier de una derivada:


/ 0
df (x)
F = ik F{f (x)}, (4.5.6)
dx
siempre que f (x) → 0 cuando |x| →∞ , lo cual no siempre es cierto,
aún cuando f (x) sea integrable y continua. Pudiera suceder que f (x)
no tuviera un lı́mite cuando x → ±∞ y ser aún integrable y contı́nua.
Este resultado se generaliza fácilmente del siguiente modo:
; <
F f (n) (x) = (ik)n F{f (x)}, n = 0, 1, 2 . . . , (4.5.7)

siempre que exista la transformada de Fourier y que tanto f (x) como


sus derivadas se anulen en el infinito.
9. Se verifica también la siguiente propiedad: si F (k) = F{f (x)}, en-
tonces
dn F (k)
F {xn f (x)} = in , n = 0, 1, 2 . . . (4.5.8)
dk n
10. Una caracterı́stica importante de la transformación de Fourier es la
siguiente: cuando f (x) es una función “muy concentrada” (queriendo
indicar ası́ que toma valores no nulos sólo en una pequeña región de
la recta real), F (k) es una función “muy extendida” (es decir, toma
valores no nulos en una región muy amplia de la recta), y viceversa.
Ejemplos tı́picos para ilustrar este comportamiento se proponen en
el primer problema, al final del capı́tulo: funciones gaussianas y fun-
ciones lorentzianas. La Figura 4.1 pretende dar una imagen gráfica
de lo que acabamos de decir (por simplicidad, tomamos una función
f (x) que sea real y además par, de manera que F (k) también resulta
ser real y par; al ser ambas reales, las podemos dibujar de manera
sencilla).

2 2

1.5 1.5

1 1

0.5 0.5

-6 -4 -2 2 4 6 -6 -4 -2 2 4 6

Figura 4.1: La función f (x) (izquierda) y su trans-


formada de Fourier F (k) (derecha).
146 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

11. Si se está trabajando con una función de varias variables, puede ha-
llarse la transformada de Fourier respecto de una de ellas solamente.
Por ejemplo, dada la función f (x, y), pueden calcularse
1 ∞
1
F1 {f (x, y)} ≡ F1 (k, y) = √ f (x, y) e−ikx dx; (4.5.9)
2π −∞
1 ∞
1
F2 {f (x, y)} ≡ F2 (x, k) = √ f (x, y) e−iky dy. (4.5.10)
2π −∞
Puede usarse este artificio para evaluar soluciones de ecuaciones or-
dinarias o en derivadas parciales, ya que, por ejemplo,
/ 0 1 ∞
∂f (x, y) 1 ∂f (x, y) −ikx
F1 =√ e dx = ik F1 (k, y);
∂x 2π −∞ ∂x
/ 0 1 ∞
∂f (x, y) 1 ∂f (x, y) −ikx ∂F1 (k, y)
F1 =√ e dx = .
∂y 2π −∞ ∂y ∂y

4.6 Generalizaciones de la transformación de


Fourier

Esencialmente son dos las extensiones que vamos a considerar en este


apartado: la transformación de Fourier multidimensional y las transfor-
maciones de Fourier en seno y coseno.

A) La transformación de Fourier multidimensional generaliza de alguna


manera lo que hemos comentado ya en (4.5.9) y (4.5.10). Supongamos que
tenemos una función real o compleja definida sobre Rn ; podemos definir la
transformada de Fourier n-dimensional como la función siguiente:
1
" 1 *
F (k ) = f ("x ) e−i k·*x d"x, (4.6.1)
(2π)n/2 R n
siendo "x = (x1 , . . . , xn ), "k = (k1 , . . . , kn ) y
"k · "x = k1 x1 + · · · + kn xn

el producto escalar ordinario. La fórmula de inversión es completamente


simétrica, teniendo cuidado en cambiar de signo la exponencial imaginaria
del integrando: 1
1 *
f ("x ) = F ("k ) ei k·*x d"k. (4.6.2)
(2π)n/2 R n
4.6. GENERALIZACIONES DE LA T. DE FOURIER 147

En particular, si hacemos n = 1 tenemos justamente las definiciones (4.3.1)


y (4.3.2). Un caso que aparece con bastante frecuencia en las aplicaciones es
aquel en el que n = 3. Las propiedades ya vistas para el caso unidimensional
siguen siendo esencialmente válidas, salvo pequeñas modificaciones muy
evidentes.
En las aplicaciones aparecen con frecuencia el gradiente, la divergen-
cia, el laplaciano o el rotacional de las funciones que estamos manejando,
de modo que resulta importante conocer cuanto vale la transformada de
Fourier de funciones escalares o vectoriales, dependientes de varias varia-
bles, sometidas a la acción de éstos operadores diferenciales. A continuación
se ofrecen unos resultados que se pueden comprobar como simples ejercicios:

1. Transformación del gradiente de una función escalar: sea F ("k ) la


transformada de Fourier n-dimensional de f ("x ), F{f ("x )}, calculada
según hemos visto en (4.6.1); la transformada de Fourier n-dimensio-
nal del gradiente de f ("x )
$ %
" ∂f ∂f
∇f ("x ) = ,..., ,
∂x1 ∂xn
resulta ser la función vectorial
" ("x )} = i"k F ("k ).
F{∇f (4.6.3)

2. Transformación de la divergencia de una función vectorial: conside-


remos f"("x ) = (f1 ("x ), . . . , fn ("x )), una función vectorial dependiente
de una variable n-dimensional "x, y sea F" ("k ) = F{f"("x )} la transfor-
mada de Fourier n-dimensional de f"("x ), entonces la transformada de
Fourier n-dimensional de la divergencia de f"("x )

" · f"("x ) = ∂f1 + · · · + ∂fn ,



∂x1 ∂xn
es la función escalar
" · f"("x )} = i"k · F" ("k ).
F{∇ (4.6.4)

3. Transformación del laplaciano de una función escalar: usando la no-


tación precedente, sea F ("k ) = F{f ("x )}; la transformada de Fourier
n-dimensional del laplaciano de f ("x )
∂2f ∂2f
∇2 f ("x ) = + · · · + ,
∂x21 ∂x2n
148 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

es la función escalar

F{∇2 f ("x )} = −("k )2 F ("k ). (4.6.5)

4. Transformación del rotacional de una función vectorial: sabemos que


cuando n = 3 se puede definir el rotacional de una función vectorial
f"("x ) = (f1 ("x ), f2 ("x ), f3 ("x )), que en coordenadas cartesianas tiene la
expesión 2 2
2 "ı " "k 22
2
2 2
" × f"("x ) = 2 ∂
∇ ∂ ∂ 2,
2 ∂x1 ∂x2 ∂x3 2
2 2
2 f1 ("x ) f2 ("x ) f3 ("x ) 2

siendo "ı, ", "k los vectores unitarios en la dirección de los ejes coorde-
nados. Se puede demostrar fácilmente que
" × f"("x )} = i "k × F" ("k ).
F{∇ (4.6.6)

En todos los casos se supone que las funciones involucradas tienden a cero
cuando |"x | →∞ . Estos resultados son de gran utilidad al realizar cálculos
en electromagnetismo, en fı́sica atómica y en fı́sica del estado sólido.

B) La transformación de Fourier en seno y coseno aparece de forma natural


al considerar funciones f (x) que presentan una cierta paridad o simetrı́a:

a) Si la función es par, es decir, si f (−x) = f (x), la transformada de


Fourier (4.3.1) es
1 ∞ 1 ∞
1 1
√ f (x) e−ikx dx = √ f (x) (cos kx − i sen kx) dx
2π −∞ 2π −∞
5 1 ∞
2
= f (x) cos kx dx := Fc (k). (4.6.7)
π 0
La última ecuación nos sirve para definir lo que llamaremos transfor-
mada de Fourier en coseno. Observemos que Fc (k) es una función
par, es decir Fc (−k) = Fc (k), por lo que la fórmula de inversión (4.3.2)
es completamente simétrica a la anterior:
1 ∞ 5 1 ∞
1 2
f (x) = √ Fc (k) eikx dk = Fc (k) cos kx dk. (4.6.8)
2π −∞ π 0
4.7. LA CONVOLUCIÓN 149

b) En el caso de que la función que estemos considerando presente sime-


trı́a impar, es decir, si f (−x) = −f (x), es muy fácil comprobar que
la transformada de Fourier (4.3.1) es simplemente
1 ∞ 5 1 ∞
1 −ikx 2
√ f (x) e dx = −i f (x) sen kx dx. (4.6.9)
2π −∞ π 0

Esto nos induce a proponer la siguiente definición de transformada de


Fourier en seno:
5 1 ∞
2
Fs (k) := f (x) sen kx dx, (4.6.10)
π 0
cuya fórmula de inversión resulta ser
5 1 ∞
2
f (x) = Fs (k) sen kx dk. (4.6.11)
π 0
Obsérvese que en esta definición únicamente hemos prescindido de
factores ±i, que son irrelevantes. Estas transformaciones en seno y
en coseno pueden resultar útiles para la resolución de determinados
problemas.

4.7 La convolución

Vamos a introducir ahora una operación entre funciones (aunque también


puede definirse para distribuciones) que tiene gran interés por su utilidad
en las aplicaciones. En realidad, en castellano deberı́amos decir “circun-
volución”, ya que ésta es la traducción correcta del término inglés convolu-
tion, pero la terminologı́a estándar en el campo cientı́fico es “convolución”,
de manera que, en lo sucesivo, usaremos este neologismo (el término inglés
folding o “dobladura” se usó originariamente como traducción del alemán
Faltung).
Definición 2: sean dos funciones f (x) y g(x) cuyas transformadas de
Fourier son, respectivamente, F (k) y G(k). Se define la “convolución” de
las funciones f (x) y g(x), que se denota por (f ∗ g), como
1 ∞ 1 ∞
(f ∗ g)(x) = f (x − y) g(y) dy = f (u) g(x − u) du = (g ∗ f )(x).
−∞ −∞
(4.7.1)
150 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

La segunda igualdad se obtiene sin más que hacer el cambio de variable


y = x − u. Vemos de lo anterior que la convolución de dos funciones es
una operación conmutativa. Este tipo de integrales de convolución apare-
cen en campos muy variados de la matemática aplicada y de la fı́sica. Si
substituimos en (4.7.1) las expresiones de f (x) y g(x) en términos de sus
transformadas de Fourier, tenemos lo siguiente:
1 ∞ 1 ∞
1
(f ∗ g)(x) = dy g(y) √ F (k) eik(x−y) dk
−∞ 2π −∞
1 ∞ 1 ∞
1
= F (k) e ikx
dk √ g(y) e−iky dy
−∞ 2π −∞
1 ∞ √
= F (k) G(k) eikx dk = 2π F −1 {F (k) G(k)}. (4.7.2)
−∞

Tomando la transformación de Fourier del primer y último términos de la


anterior cadena de igualdades, obtenemos el siguiente resultado

F{(f ∗ g)(x)} = 2π F (k) G(k), (4.7.3)
que es de enorme importancia en las aplicaciones, particularmente al utilizar
la transformación de Fourier para resolver ecuaciones diferenciales lineales.
Nótese que hemos permutado las integraciones en k e y, lo cual suele ser
casi siempre posible en los problemas que aparecen.
Dadas dos funciones f (x), g(x) y sus respectivas transformadas de
Fourier F (k), G(k), también puede hallarse el resultado recı́proco de (4.7.3):
1 ∞
1
F{f (x)g(x)}(k) = √ f (x)g(x) e−ikx dx
2π −∞
1 ∞1 ∞1 ∞
1
= F (αeiαx G(β) eiβx e−ikx dx dα dβ
(2π)3/2 −∞ −∞ −∞
1 ∞1 ∞ 1 ∞
1
= F (α) G(β) dα dβ eix(α+β−k) dx
(2π)3/2 −∞ −∞ −∞
1 ∞1 ∞
1
=√ F (α) G(β) dα dβ δ(α + β − k)
2π −∞ −∞
1 ∞
1 1
=√ F (k − β) G(β) dβ = √ (F ∗ G)(k), (4.7.4)
2π −∞ 2π
que puede ser de utilidad en la resolución de algún tipo de problemas.
4.8. RELACIÓN DE PARSEVAL 151

4.8 Relación de Parseval para la transformación


de Fourier

Hemos visto que la transformación de Fourier, por su estrecha relación


con las series de Fourier, hereda bastantes propiedades de éstas. Ası́ por
ejemplo, las condiciones para la existencia de la transformada de Fourier
son análogas a las condiciones de existencia de los coeficientes de la serie
Fourier, y el problema de la inversión de la transformación de Fourier es
análogo al de la convergencia de la serie de Fourier al valor original de la
función f (x). Vamos a demostrar a continuación una importante propiedad
que relaciona la integral de una función y la de su transformada de Fourier,
y que viene a ser el equivalente de la relación de Parseval en el caso de las
series de Fourier.
Sean dos funciones f (x) y g(x), reales o complejas e integrables, cuyas
transformadas de Fourier son, respectivamente F (k) y G(k). Utilizando las
expresiones de f (x) y g(x) como transformadas de Fourier inversas de F (k)
y G(k), y sin más que operar (aplicando el teorema de Fubini, para lo que
se necesita que f (x) y g(x) sean ambas integrables), tenemos lo siguiente:
1 ∞ 1 ∞ !1 ∞ "!1 ∞ "
dα dβ −iβx
f (x) g(x) dx = √ F (α) e iαx
√ G(β) e dx
−∞ −∞ −∞ 2π −∞ 2π
1 ∞1 ∞1 ∞
1
= F (α) G(β) eix(α−β) dx dα dβ
2π −∞ −∞ −∞
1 ∞1 ∞ 1 ∞
1
= F (α) G(β) dα dβ eix(α−β) dx
2π −∞ −∞ −∞
1 ∞1 ∞
1
= F (α) G(β) 2π δ(α − β) dα dβ
2π −∞ −∞
1 ∞
= F (β) G(β) dβ.
−∞

Hemos hecho uso de la representación integral de la δ de Dirac vista en


(11). En las manipulaciones anteriores hemos intercambiado el orden de
integración según nos convenı́a; una condición suficiente para poder hacer
eso es que tanto f (x) y g(x) como F (k) y G(k) pertenezcan al espacio de
funciones L1 (R). En el caso particular de que las funciones f y g sean
la misma, tenemos la relación de Parseval (también llamada de Parseval-
152 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

Plancherel o teorema de Plancherel2 ):


1 ∞ 1 ∞
|f (x)| dx =
2
|F (k)|2 dk, (4.8.1)
−∞ −∞

que es muy útil para evaluar ciertas integrales no triviales. Esta relación
sólo nos dará un resultado relevante si las funciones f (x) y F (k) pertenecen
al espacio L2 (R), ya que de otro modo las integrales tendrán un valor
infinito.

4.9 La transformación de Fourier como operador

Hemos comentado que la definición de transformación de Fourier en una


dimensión tiene sentido, por ejemplo, para funciones f (x) ∈ L1 (R) (recorde-
mos que L1 (R) representa las funciones integrables en el sentido de Lebes-
gue). Ahora bien, resulta que este espacio de funciones no es estable bajo
la transformación de Fourier, es decir, las imágenes de algunas funciones de
L1 (R) no pertenecen a L1 (R) (en general, si f (x) ∈/ L1 (R) su transformada
de Fourier resulta ser una distribución). Existen dos espacios de funciones
que nos han aparecido ya en capı́tulos precedentes y que juegan un papel
destacado en la teorı́a de la transformción de Fourier: se trata del espacio
de Schwartz S(R), que introdujimos al estudiar las distribuciones, y del
espacio de la funciones de cuadrado integrable L2 (R), que nos apareció al
estudiar las series de Fourier. El espacio de Schwartz S(R) es un subespacio
vectorial de L1 (R) y es también un subespacio vectorial denso en L2 (R).
Podemos considerar la transformación de Fourier como un operador que
actúa sobre estos espacios funcionales:

F : S(R) → S(R) (4.9.1)


F : L2 (R) → L2 (R) (4.9.2)

Algunos resultados de interés de este operador son los siguientes3 :

1. El espacio de Schwartz S(R) es estable bajo la transformación de


Fourier, es decir: F(S(R)) = S(R). De hecho F es una biyección
lineal y continua de S(R) sobre S(R), al igual que F −1 .
2
Michel Plancherel (1885-1967), matemático suizo que trabajó esencialmente en
análisis armónico y fı́sica matemática.
3
Para un análisis más cuidadoso de las afirmaciones que siguen, véase el Capı́tulo 13.
4.9. LA TRANSFORMACIÓN DE FOURIER COMO OPERADOR 153

2. Se puede demostrar que los operadores F y F −1 son unitarios en


L2 (R), lo que significa que son isometrı́as (es decir que preservan la
norma de las funciones en L2 (R)) y que son aplicaciones sobreyectivas.
La norma en el espacio L2 (R) es la siguiente
1
||f (x)|| := |f (x)|2 dx, ∀ f (x) ∈ L2 (R). (4.9.3)
R

3. Sea T una distribución y f (x) una función perteneciente a un espacio


de funciones de prueba; se define la transformada de Fourier FT de
la distribución T del siguiente modo:
1
.FT, f (x)/ := .T, F{f (x)}/ = T (k) F (k) dk, (4.9.4)
R

siempre que la expresión del segundo miembro tenga sentido. Esto


es cierto, en particular, para distribuciones temperadas T ∈ S ! (R),
pero no sólo para ellas. Se verifican propiedades análogas a las vistas
para la transformación de Fourier de funciones sin más que usar la
definición (4.9.4).

4. Una fórmula de una enorme utilidad se obtiene al calcular la trans-


formada de Fourier de la distribución δ de Dirac usando (4.9.4). Es
fácil probar que

1
(F{δ(x − a)})(k) = √ e−iak . (4.9.5)

En particular, si elegimos a = 0, el resultado precedente es

1
(F{δ(x)})(k) = √ , (F −1 {(2π)−1/2 })(k) = δ(x), (4.9.6)

que aparece más frecuentemente en la forma ya conocida (11)


1 1
±ikx
e dk = 2π δ(x), δ(x) e±ikx dx = 1. (4.9.7)
R R

Este resultado ha sido utilizado para demostrar la relación de Parseval


en la sección precedente.
154 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

4.10 La transformación de Fourier rápida (FFT)

En muchos de los problemas que se le pueden presentar al cientı́fico o al


ingeniero en la vida “real” (entendiendo por esto aquellos cálculos que le
surgen en el desempeño de su trabajo y no en los ejercicios más o menos
teóricos o idealizados que se proponen en clase), éste ha de recurrir con fre-
cuencia a encontrar la solución con la ayuda de un ordenador, y ha de hacer,
por tanto, cálculos numéricos aproximados. El caso de la transformación
de Fourier no es una excepción.
Para encontrar numéricamente la transformada de Fourier de una fun-
ción f (x), lo que se suele hacer es discretizar el problema, y en lugar de
considerar que x es una variable continua, se supone que pasa a tomar sólo
valores discretos xj , j = 0, . . . , N − 1, equidistantes en un cierto intervalo
de la recta real. De esta manera, la integral (4.3.1) extendida a toda la
recta real se sustituye por una suma finita:
N
& −1
f˜(k) = f (xj ) e−ikxj ∆xj . (4.10.1)
j=0

Esta nueva función f˜(k) que acabamos de definir se llama “transformación


de Fourier discreta” (en inglés discrete Fourier transform o DFT). Existı́an
algoritmos para hacer el cálculo numérico de expresiones de este tipo para
un número elevado de puntos N , pero presentaban el inconveniente de
que se requerı́a un gran tiempo de cálculo. Por este motivo se desarrolló
un algoritmo denominado “transformación de Fourier rápida” (en inglés
fast Fourier transform o FFT), que es un nuevo modo de calcular (4.10.1)
reordenando adecuadamente los términos de la suma. Fueron Cooley y
Tukey4 quienes introdujeron este algoritmo, cuya importancia estriba en
la drástica reducción del número de operaciones requeridas. Debido a la
tremenda velocidad de cálculo que se ha logrado en los últimos años, ası́
como a la reducción del coste de esos cálculos, la FFT ha supuesto un hito
en el campo del análisis numérico, y es considerada por muchos como uno
de los pocos avances realmente significativos en este campo en los últimos
tiempos.
Para ser más precisos, para una muestra de N puntos (que, en su caso,
pueden ser ciertas medidas experimentales), un cálculo directo de (4.10.1)
4
John Wilder Tukey (1915–), matemático y quı́mico estadounidense que trabaja es-
pecialmente en estadı́stica.
4.11. LA TRANSFORMACIÓN EN “ONDITAS” 155

requiere alrededor de N 2 multiplicaciones. Cuando se elige que N sea una


potencia de 2, la técnica de Cooley y Tukey reduce el número de multipli-
caciones requeridas a (N/2) log2 N . En particular, si N = 210 = 1024, la
FFT reduce el número de cálculos por un factor de 200, y resulta ser 100
veces más rápida que el cálculo directo de la DFT. Esta es la razón de que
se le llame “rápida” y también de que haya revolucionado el procesamiento
digital de señales. No pretendemos entrar en más detalles respecto de este
interesante asunto, pero creemos que hoy en dı́a, dada la importancia que
para casi todo cientı́fico tiene el uso del cálculo numérico, conviene tener
al menos noticia de la existencia de este potentı́simo algoritmo, que quizá
el lector pueda precisar algún dı́a. Para una información más detallada
pueden consultarse las referencias indicadas en la bibliografı́a.

4.11 La transformación en “onditas”

Actualmente las técnicas relacionadas con la transformación de Fourier se


utilizan muchı́simo en las aplicaciones industriales del análisis y tratamiento
de señales, tanto en geofı́sica y sismologı́a, como en análisis y sı́ntesis de
sonido, o en aplicaciones médicas de reproducción de imágenes obtenidas
por tomografı́a, por citar algunos ejemplos. En general, en estas aplica-
ciones se trata siempre de obtener de una señal las informaciones realmente
relevantes bajo la forma de unos valores numéricos caracterı́sticos y poco
numerosos. Las series de Fourier son la más antigua de las herramientas
disponibles en este campo y son realmente útiles desde la invención de la
FFT, ya mencionada, en especial para el análisis de señales periódicas y su-
ficientemente regulares. En este caso los coeficientes de Fourier cn se hacen
rápidamente despreciables según aumenta |n|, de manera que unos pocos
valores numéricos de los coeficientes bastan para caracterizar de forma efi-
ciente la función en el dominio de frecuencias. Ahora bien, cuando la señal
se hace irregular, se hace necesario contar con una lista demasiado numerosa
de valores de los coeficientes, lo cual resulta poco práctico.
Para analizar las señales no periódicas se puede recurrir a la transfor-
mación de Fourier, que nos da un espectro continuo de frecuencias k. Antes
de la invención del algoritmo de la FFT, el interés de la transformación de
Fourier era sobre todo teórica, pues los cálculos efectivos resultaban real-
mente demasiado largos como para resultar eficaces. No obstante, aún con-
tando con la FFT, el análisis de Fourier presenta grandes inconvenientes
156 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

que no permiten realizar un análisis satisfactorio de cualquier tipo de señal.


Ası́ por ejemplo:

1. En el espectro F (k) de una función f (x) todos los aspectos relevantes


en la variable x (que muchas veces es el tiempo) desaparecen; por
ejemplo el comienzo y el final de una señal finita, o el momento en el
que aparece una singularidad.
2. Para el cálculo propiamente dicho del espectro F (k) de una señal
f (x), es preciso conocer el valor de f (x), ∀x ∈ R. Pero ésto, que se
puede realizar como un ejercicio teórico, resulta imposible en el caso
de una señal en tiempo real, en el cual la señal es procesada a medida
que los valores numéricos nos van llegando, siendo imposible conocer
la señal en el futuro lejano. Resulta por tanto imposible conocer el
espectro, aunque sea aproximado, de una señal de la que no se conoce
nada sobre su futuro, ya que podrı́an ir apareciendo frecuencias de
cualquier valor numérico.

Esto hace pensar que serı́a muy útil contar con una descripción de la función
o señal f (x) que efectuara a la vez un análisis en “tiempo” (nuestra varia-
ble x) y en “frecuencia” (nuestra variable k), como lo hace, por ejemplo,
una partitura musical, que nos da a la vez la frecuencia de las notas musi-
cales y su duración temporal. Las onditas o wavelets son una herramienta
diseñada para cumplir esta misión, capaces de descomponer de manera efi-
ciente funciones no periódicas de campos muy diversos, como pueden ser
soluciones de ecuaciones diferenciales con discontinuidades bruscas, señales
unidimensionales o bidimensionales correspondientes a sonidos o imágenes,
soluciones de ecuaciones integrales para operadores singulares, etc. Cu-
riosamente, la teorı́a de wavelets, o transformada en wavelets, es esen-
cialmente una sı́ntesis de los trabajos desarrollados durante la década de
1980 en campos aparentemente tan dispares como la fı́sica cuántica, las
matemáticas puras o la ingenierı́a eléctrica. Vamos a comentar a continua-
ción, de manera muy breve y esquemática, el fundamento que subyace a
esta nueva transformación, o descomposición en “tiempo-frecuencia”.
Consideremos una función f (t) que depende del tiempo. Si nos interesa
su “contenido en frecuencias”, tambien llamado “espectro”, hemos visto
que debemos recurrir a calcular su transformada de Fourier (4.3.1)
1 ∞
1
F (k) = √ f (x) e−iks ds.
2π −∞
4.11. LA TRANSFORMACIÓN EN “ONDITAS” 157

Al igual que todos los armónicos están presentes en f (t), pero no se sabe
cuánto contribuye cada uno, lo mismo sucede con la información temporal
que está presente en F (k), pero que no se puede conocer a primera vista.
¿Cómo realizar la descripción o descomposición de la función en tiempo
y en frecuencia a la vez, al modo de un pentagrama musical? La idea básica
generaliza la transformación de Fourier usando lo que se llama una familia
de funciones ventana ψm,n (t) con las que se muestrea la señal f (t) mediante
el cálculo de productos escalares
1
Wm,n (f ) = f (s) ψm,n (s) ds, (4.11.1)
R

donde m indicará la localización en frecuencia y n la localización en el


tiempo. A Wm,n (f ) le llamaremos transformada en onditas de f (t). La
familia de wavelets u onditas se construye a partir de una ondita analizante
u ondita madre ψ(t), que se elige de manera que esté bien concentrada en
tiempo y en frecuenca, y tal que
1
ψ(t) dt = 0,
R

lo que significa que posee al menos una oscilación en su dominio de defini-


ción. Las otras onditas de la familia se construyen a partir de la original
mediante dilataciones y traslaciones:
−m/2
ψm,n (t) = a0 ψ(a−m
0 t − nb0 ), m, n ∈ Z, (4.11.2)
donde a0 > 1 y b0 > 0 son parámetros fijados que determinan también la
estructura de las onditas. Al variar m las oscilaciones de ψ(t) se aglutinan
o se expanden, en un efecto tipo acordeón. Para m fijo, ψm,n son las
onditas trasladadas de ψm,0 . Es precisamente esta capacidad de traslación
y el efecto acordeón, que permite si es necesario centrar las onditas en
cierta región relevante de la recta real, lo que hace de ellas una herramienta
sumamente potente.
Para dar algún ejemplo concreto necesitaremos partir de una ondita
madre y usar la expresión (4.11.2); en lo sucesivo tomaremos, como suele
ser usual, los siguientes valores de los parámetros: a0 = 2 y b0 = 1.

Ejemplo 3: el primer ejemplo que vamos a ofrecer es el más antiguo y quizá


el más sencillo, son las onditas de Haar5 (conocidas desde 1910, aunque en
5
Alfréd Haar (1885–1933), matemático húngaro recordado sobre todo por sus trabajos
en teorı́a de grupos.
158 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

otro contexto diferente), construidas a partir de la ondita madre siguiente



 1, 0 ≤ t < 12 ,

ψ(t) = −1, 1
2 ≤ t < 1,


0 t∈
/ [0, 1).

Ejemplo 4: las onditas de Morlet se construyen a partir de la función


2 /2
ψ(t) = e−t cos 5t.

Prácticamente cualquier función ψ que sea oscilante, tal que tanto ella como
su transformada de Fourier estén bien localizadas, y que además su integral
sea nula, será útil como ondita madre. Ası́ por ejemplo, la derivada segunda
de una gaussiana, que es un “sombrero mexicano”
2 2
ψ(t) = √ (1 − t2 ) e−t /2 .
3π 1/4

Se propone como ejercicio al lector realizar representaciones gráficas de


algunas de las onditas ψm,n (t) que surgen de los tres ejemplos comentados.
Hemos comentado sólo la existencia de estas familia de onditas, con
las cuales se puede realizar un análisis en tiempo frecuencia de la función
señal f (t) obteniendo unos valores de la transformada en onditas Wm,n (f )
según (4.11.1). Pero para que esta herramienta sea de alguna utilidad en
las aplicaciones han de suceder dos cosas:

1. Que sea posible caracterizar completamente la función f a partir de


la transformada en onditas Wm,n (f ).

2. Que sea posible reconstruir f de forma numérica a partir de Wm,n (f ),


y esto de forma estable.

Pues bien, en la práctica dada una ondita madre como las mostradas en los
ejemplos anteriores o similares, sı́ es posible construir algoritmos explı́citos
que permiten cumplir los dos objetivos anteriormente indicados. Para más
información, se recomienda consultar los libros de Daubechies y Gasquet-
Witomski que se citan al final del capı́tulo, ası́ como la bibliografı́a ofrecida
en ellos.
4.12. PROBLEMAS 159

4.12 Problemas
1. Considérense las funciones:
2
a) f (x) = N e−αx ; N, α = ctes. > 0.
a
b) f (x) = ; a = cte. > 0.
x2 + a2
Hállese la transformada de Fourier de ambas, F (k) = F{f (x)}, compárese
con la función original f (x) y compruébese que F −1 {F (k)} = f (x).
2. Calcúlese la transformada de Fourier de las siguientes funciones:
a) f (x) = cte.; b) f (x) = H(x);
)
b, 0 < x ≤ T,
e) f (x) = k) f (x) = sen ax;
0, en el resto de R;
c) f (x) = signo (x); d) f (x) = xH(x);
)
1, |x| ≤ a,
f ) f (x) = rect (x/a) = h) f (x) = exp(iax);
0, |x| > a;
j) f (x) = cos ax rect(x/d); l) f (x) = x−n ;
)
a − |x|, |x| ≤ a,
g) f (x) = tri (x, a) = i) f (x) = cos(x2 );
0, |x| > a;
m) f (x) = |x|; n) f (x) = cos ax;

ñ) f (x) = xn .
1 ∞
1
3. Si F (k) = F{f (x)}, k != 0 y F (0) = √ f (u) du != 0, demuéstrese
2π −∞
que /1 x 0
F (k)
F f (u) du = −i + πF (0) δ(k).
−∞ k
Hállese el resultado cuando k = 0.
4. Si F (k) = F{f (x)}, demuéstrese que F{F (x)} = f (−k) y aplı́quese este
resultado para hallar la transformada de Fourier de
sen (ax)
f (x) = sinc (ax) = , a = cte.
ax
5. Evalúense las transformadas de Fourier en coseno y en seno de la función
f (x) = e−ax , x > 0, a > 0.
160 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

6. Sea f (x) una función tal que ella y su derivada primera se anulan cuando
x → ∞. Si Fc (k) y Fs (k) son sus transformadas de Fourier en coseno y en
seno respectivamente, demuéstrese que
5 5
2 % 2
Fc {f (x)} = −k Fc (k) −
%% 2
f (0) Fs {f (x)} = −k Fs (k) +
%% 2
kf (0).
π π

7. Hállese Fc −1 [Fc (k)Gc (k)] y Fs −1 [Fs (k)Gs (k)] en función de la convolución


de las funciones originales f (x) y g(x).
8. Suponiendo que en todos los casos a > 0, determı́nese la transformada de
Fourier de las funciones:
a) f (x) = H(x) e−ax . b) f (x) = H(−x) eax .

c) f (x) = sen(βx) H(x) e−ax . d) f (x) = x H(x) e−ax .

e) f (x) = e−a|x| . f ) f (x) = sen(βx) H(−x) eax .


 
&n
1 1
g) f (x) = . h) f ("x ) = exp − Aij xi xj  .
1 + x4 2 i,j=1

9. Evalúense las siguientes integrales indefinidas:


1 ∞ 1 ∞
a sen ax cos ax
a) 2 + b2
da b) 2 + b2
da .
0 a 0 a

Demuéstrese también la siguiente igualdad:


1 $ % 1 )
2a2 ∞
θx dθ θ x2 , 0 ≤ x < a;
c) cos v cos v dv =
2
π 0 a θ3 0 0, x > a.

10. Sea f ("r ) : R3 → R una función con simetrı́a esférica. Demuéstrese que
5 1 ∞
2
F{f ("r )} = r2 f (r) sinc (kr) dr.
π 0

Aplı́quese este resultado para hallar la transformada de Fourier de la función

e−λr
f (r) = .
r

11. Demuéstrese que F 4 = I, es decir que el resultado de aplicar, de manera


sucesiva, cuatro veces la tranformada de Fourier a una función, da como
resultado la función original.
4.12. PROBLEMAS 161

12. Usando algún resultado del problema 2, calcúlese


1 ∞ $ %2
sen t
dt.
−∞ t

13. Resuélvanse las siguientes ecuaciones diferenciales en función de los valores


de f (x) utilizando el recurso de la tranformación de Fourier
a) u%% (x) + u% (x) − 2u(x) = f (x).
b) u%% (x) − u(x) = f (x).
c) u%% (x) + 2u% (x) + u(x) = f (x).
d) u%% (x) + 4u% (x) + 5u(x) = f (x).
e) u%% (x) − 4u% (x) + 5u(x) = f (x).

14. Evalúense las tranformadas de Fourier tridimensionales de


"r −ar
a) f ("r ) = e−ar ; b) f ("r ) = "r e−ar ; c) f ("r ) = e .
r

15. Considérese la función



 β (x − α) si x ∈ [0, α]
2

f (x) = β (x + α)2 si x ∈ [−α, 0]


0 si x ∈
/ [−α, α]

siendo α y β números reales positivos arbitrarios.


a) Dibújese de forma precisa la gráfica de esta función.
b) Calcúlese el parámetro β en función de α para que el área determinada
por la función f (x) y el eje de abscisas valga la unidad.
c) Con esta elección de β, ¿qué cree que sucederá con la función f (x) cuando
consideremos el lı́mite α → 0? No se exige una demostración rigurosa, pero
sı́ una explicación de la respuesta.
d) Calcúlese la transformada de Fourier F (k) de f (x). (¡Cuidado al hacer
las integrales!)
e) ¿Cuánto vale F (0), la transformada de Fourier en k = 0?
f ) En el supuesto de que β tome el valor determinado en el apartado b),
calcúlese el lı́mite lim F (k). ¿Concuerda este resultado con la respuesta
α→0
dada en c)?

16. Dibújese la función f (x) = e−α |x| rect (x), (α ≥ 0) y calcúlese su transfor-
mada de Fourier.
162 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

17. El momento n-ésimo mn de una función f (x) se define


1 ∞
mn = xn f (x) dx, n = 0, 1, 2, . . .
−∞

Si F(k) = F[f (x)], demuéstrese que


√ 2
2π dn F (k) 22
mn = .
(−i)n dk n 2k=0

Pruébese también que



1 & kn
F (k) = √ (−i)n mn .
2π n=0 n!

18. Evalúense las tranformadas de Fourier en seno de


)
sen x, 0 ≤ x ≤ π;
a) f (x) = e−x cos x. b) f (x) =
0, x > π.

c) f (x) = xe−ax . d) f (x) = xa−1 , 0 < a < 1.

19. Resuélvanse las siguientes ecuaciones integrales:


1 ∞
y(u) du 1
a) = 2 , 0 < a < b.
−∞ (x − u) + a
2 2 x + b2
1 ∞
b) y(x) = g(x) + y(u) r(x − u) du; g(x), r(x) conocidas.
−∞

1 )
∞ 1 − a, 0 ≤ a ≤ 1;
c) f (x) sen ax dx =
0 0, a > 1.
1 ∞
2
d) y(u) y(x − u) du = e−x .
−∞


 1, 0 ≤ t < 1;
1 ∞ 

e) y(x) sen xt dx = 2, 1 ≤ t < 2;
0 



0, t ≥ 2.
4.12. PROBLEMAS 163

20. Utilı́cense algunos de los resultados del problema 14 para calcular la “integral
de solapamiento”:
1
e−αr e−β|*r−*x | d3"r, α, β > 0.

Distı́nganse los casos α != β y α = β.


21. Supóngase que tenemos un sistema fı́sico sometido a una excitación descrita
por una función de entrada fi (t), que responde con una función de salida
fo (t). Diremos que tal sistema es lineal si su respuesta a la excitación

fi (t) = a1 fi1 (t) + a2 fi2 (t), a1 , a2 = constantes,

es
fo (t) = S[fi (t)] = a1 fo1 (t) + a2 fo2 (t).
Por “S” indicamos la actuación del sistema sobre la entrada.
La respuesta de un sistema lineal cuando la entrada es el impulso δ(t) se
denota como g(t) y se denomina “función respuesta impulso” del sistema.
La transformada de Fourier de g(t) se denomina “función de transferencia”
del sistema y se denota por G(ω).
Si la respuesta del sistema a la excitación fi (t − t0 ) es

fo (t) = S[fi (t − t0 )] = fo (t − t0 ),

se dice además que el sistema es invariante en el tiempo (t0 es una constante


arbitraria).
a) Demuéstrese que la respuesta fo (t) de un sistema lineal e invariante en el
tiempo a una entrada arbitraria fi (t) se puede expresar como la convolución
de la entrada con la función respuesta impulso del sistema:

fo (t) = g(t) ∗ fi (t) = fi (t) ∗ g(t).

b) Ası́mismo, si Fi (ω) y Fo (ω) son las transformadas de Fourier de fi (t) y


fo (t), respectivamente, demuéstrese que

Fo (ω) = 2π Fi (ω) G(ω),

de modo que en el espacio de frecuencias el sistema lineal actúa multiplicati-


vamente, siendo G(ω) una función que pondera las componentes de diferente
frecuencia de la entrada (se dice que el sistema actúa como un “filtro”).
22. Si G(ω) = R(ω) + iI(ω) es la función de transferencia de un sistema lineal
e invariante en el tiempo, hállese la respuesta del sistema, fo (t), cuando
la entrada es fi (t) = cos ω0 t H(t), en función de R(ω) e I(ω). H(t) es la
función de Heaviside.
164 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

23. El “filtro ideal para frecuencias bajas” o filtro “pasa-baja”, se define como
un sistema cuya función de transferencia G(ω) está dada por:

 1
 √ exp{−iωt0 }, |ω| ≤| ωc |,
G(ω) = 2π


0, |ω| > |ωc |,
donde ωc es la llamada “frecuencia de corte”. Hállese la función respuesta
impulso del sistema g(t) y la respuesta al escalón unitario, comentando el
resultado obtenido.
24. Un sistema fı́sico pasivo tiene la propiedad de que si la fuente es nula para
t < t0 , entonces la respuesta también es nula para t < t0 . Un sistema que
satisface esta condición se denomina causal. Se puede demostrar que todos
los sistemas fı́sicamente realizables son causales. Si G(ω) = R(ω) + iI(ω)
es la función transferencia de un sistema lineal, invariante en el tiempo y
causal, hállese la respuesta del sistema a la función salto y la transformada
de Fourier de la respuesta en función de R(ω) e I(ω).
25. Teorema del muestreo en el dominio de la frecuencia. Demuéstrese que
si una función f (t) es nula en todo su dominio excepto en el intervalo
−T < t < T , entonces su transformada de Fourier F (ω) se puede deter-
minar unı́vocamente a partir de sus valores F (nπ/T ), localizados en puntos
equidistantes separados en π/T . De hecho, F (ω) está dada por:
&∞ $ %

F (ω) = F sinc (ωT − nπ).
n=−∞
T

26. Se denomina modulación al método de procesar una señal para obtener una
transmisión más eficiente. Un tipo de modulación comúnmente utilizado
(modulación de amplitud) se basa en el “teorema de traslación de la fre-
cuencia”, algunas veces llamado “teorema de modulación”. Este teorema
establece que la multiplicación de una señal f (t) por otra sinusoidal o cosi-
nusoidal de frecuencia ωc traslada su espectro en ±ωc radianes. Verifı́quese
este teorema y demuéstrese que si f (t) es una señal de banda limitada (sin
componentes espectrales por encima de una frecuencia dada ωm ), entonces
el espectro de la seǹal f (t) cos(ωc t) es también de banda limitada.
27. Se puede suponer que un átomo de hidrógeno en su estado de energı́a más
baja consiste en una carga nuclear +0 y una distribución de carga negativa
α3 −αr
ρ("r ) = −0 e .

Evalúese la energı́a potencial total de la interacción coulombiana entre dos
átomos de este tipo. Para ello tómese como origen de coordenadas uno de
los átomos, denótese por "x el vector de posición del otro átomo con respecto
a él y utilı́cense unas nociones elementales de electromagnetismo.
4.12. PROBLEMAS 165

28. Considérese una pantalla delgada absorbente cuyo coeficiente de transmisión


de amplitud del campo electromagnético viene expresado por la función
transmitancia:
! " 'x( 'y(
1 m
t(x, y) = + cos(k0 x) rect rect , a, b > 0, m ≤ 1,
2 2 2a 2b
donde k0 = 2π/Γ, siendo Γ el perı́odo espacial de las variaciones de la
transmitancia. Dicha pantalla constituye una red de difracción de amplitud
sinusoidal. Si la pantalla se ilumina bajo incidencia normal con una onda
plana monocromática de amplitud unidad, la distribución de campo sobre
la misma, E(x, y), es precisamente igual a t(x, y). Determı́nese la figura de
difracción de Fraunhofer creada por dicha red.

NOTA: la distribución de intensidad


2 de campo
22 en la figura de difracción
de Fraunhofer es I(kx , ky ) = A 2F[E(x, y)]2 , donde A es un factor de pro-
porcionalidad que depende de la longitud de onda de la luz que ilumina y
de la distancia z de la pantalla al plano de observación; (x, y) son las co-
ordenadas en el plano de la pantalla y kx , ky son las frecuencias espaciales
(relacionadas con las direcciones angulares), dadas por:
$ % % $ % %
2π x 2π y
kx = , ky = ,
λ z λ z
siendo (x% , y % ) las coordenadas en el plano de observación.
29. Considérese una viga delgada de longitud L (en reposo permanece para-
lela al eje horizontal x) que descansa sobre una base elástica. Con esta
condición se quiere indicar que la base es capaz de ejercer una fuerza de
reacción por unidad de longitud que es proporcional a la magnitud de las
deformaciones sufridas por la viga como consecuencia de la actuación de una
fuerza externa sobre ella. Denótese por z(x) la deformación que sufre la viga
respecto a la horizontal; la ecuación diferencial que satisface esta magnitud
es: E I z (iv) (x) = q(x) − C z(x), C = cte., siendo q(x) la fuerza externa
por unidad de longitud. Hállese z(x) cuando la viga se carga con una fuerza
concentrada en su punto medio.
30. Determı́nese el desplazamiento z(x, t) de una cuerda perfectamente elástica
e infinitamente larga, cuya posición de equilibrio es una recta paralela al eje
x, cuando se deja que vibre libremente, sin fricción, en el plano x − z, con
velocidad inicial nula. El desplazamiento inicial está dado por la función
f (x), −∞ < x < ∞.

31. Hállese la transformada de Fourier de la función y = 1 − x2 . Se ofrece
como dato 1 π/2
2 (cos θ)2n dθ = B(1/2, n + 1/2).
0
166 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

32. Dada una función f (x) ∈ L2 (R), que puede representar cierta magnitud
fı́sica, se definen el valor medio de la variable x con esta función, denotado
x̄, y la dispersión de f (x) alrededor de x̄, denotada ∆x, del siguiente modo:
1 ∞ 1 ∞
1 1
x̄ = x |f (x)|2 dx, (∆x)2 = (x − x̄)2 |f (x)|2 dx,
||f ||2 −∞ ||f ||2 −∞
1 ∞
siendo ||f ||2 = |f (x)|2 dx. Definiciones análogas sirven para la trans-
−∞
formada de Fourier F (k), el valor medio k̄ y la dispersión ∆k.

Usando la desigualdad de Schwarz6 para integrales de funciones reales


21 ∞ 22 $1 ∞ % $1 ∞ %
2 2
2 f (x) g(x) dx22 ≤ f (x) dx
2 2
g(x) dx ,
2
−∞ −∞ −∞

demuéstrese el principio de incertidumbre en el análisis de Fourier

1
(∆x)(∆k) ≥ ,
2

y compárese con el principio de incertidumbre de Heisenberg7 de la mecánica


cuántica (véase por ejemplo el ejercicio 5.15, página 289, del libro de Lévy-
Leblond y Balibar mencionado en la bibliografı́a).

33. Calcúlese la transformada de Fourier de la función


)
1 − |x/2|, −2 ≤ x ≤ 2,
f (x) =
0, en el resto de R.

Utilı́cese este resultado para determinar el valor de la integral


1 ∞ $ %4
sen t
dt.
−∞ t

34. Hállese la transformada de Fourier de la función




f (x) = (1 + |x|) e−|x| .
4
6
Karl Herman Amandus Schwarz (1843–1921), matemático alemán que trabajó en
transformaciones conformes y en problemas de cálculo variacional, en concreto sobre
superficies de área mı́nima.
7
Werner Karl Heisenberg (1901–76), fı́sico alemán que fue uno de los fundadores de
la mecánica cuántica, y recibió el premio Nobel de Fı́sica en 1932.
4.12. PROBLEMAS 167

35. Dada la función


1
f (x) = ,
x(x2 + 1)

demuéstrese que
5
π
F (k) = −i (1 − e−|k| ) signo (k).
2

36. Sea f (x, y) una función de dos variables reales. Para cada tres valores fijados
(k1 , k2 ; q) consideremos las rectas γ(k1 , k2 ; q) := k1 x + k2 y = q en el plano
R2 . Se define la transformada de Radon8 de la función f (x, y) como9
1
1 1
R{f (x, y)}(k1 , k2 ; q) = √ 6 f (x, y) d' ≡ FR (k1 , k2 ; q),
2π k12 + k22 γ(k1 ,k2 ;q)
6 (4.12.1)
siendo d' el elemento de lı́nea d' = (dx)2 + (dy)2 .

a) Escrı́base la función FR (k1 , k2 ; q) como una integral en la variable x y


luego como una integral en la variable y.

b) Pruébese que FR (k1 , k2 ; q) es una función homogénea de grado −1, es


decir, verifica
1
FR (λk1 , λk2 ; λq) = FR (k1 , k2 ; q).
|λ|

c) La transformada de Radon que acabamos de definir esta relacionada con


la transformada de Fourier inversa de f (x, y). Encuéntrese la forma precisa
de esta relación evaluando la siguiente integral:
1 ∞
1
Fλ−1 {F (λk1 , λk2 )} ≡ √ F (λk1 , λk2 ) eiλq dλ,
2π −∞

siendo F (k1 , k2 ) = F{f (x, y)}.

d) Obténgase de lo anterior una expresión para FR (k1 , k2 ; q) como una in-


tegral extendida a todo R2 de f (x, y).

8
Johann Radon (1887–1956), matemático austrı́aco.
9
La transformada de Radon es el fundamento matemático que explica una técnica
llamada tomografı́a, que es usada en medicina, en concreto en los aparatos denominados
“scanners”. Para más detalles véase el artı́culo de Cormack que se cita en la bibliografı́a.
168 CAPÍTULO 4. LA TRANSFORMACIÓN DE FOURIER

4.13 Bibliografı́a
1. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
2. G.D. Bergland, A Guided Tour of the Fast Fourier Transform, IEEE Spec-
trum, pp. 41-52 (1969).
3. E.O. Brigham and R.E. Morrow, The Fast Fourier Transform, IEEE Spec-
trum, pp. 63-70 (1967).
4. Butkov, E., Mathematical Physics, Addison-Wesley, 1968.
5. Churchill, R.V., Series de Fourier y problemas de contorno, Ediciones del
Castillo, 1966.
6. Cooley, J.W. and Tukey, J.W., An algorithm for the machine calculation of
complex Fourier series, Math. Comput. 19, 297-301 (1965).
7. Cormack, A.M., Representation of a function by its line integrals with some
radiologycal applications, J. Appl. Phys. 34, 2722-2727 (1963).
8. Daubechies, I., Ten lectures on wavelets, CMBS Lecture Notes 61, SIAM,
1992.
9. Daubechies, I., Different perspectives on wavelets, Proceedings of Symposia
in Applied Mathematics, Vol. 47, AMS, 1993.
10. Gasquet, C., et Witomski, P., Analyse de Fourier et applications, Masson,
1990.
11. Hsu, H. P., Análisis de Fourier , Fondo Educativo Interamericano, 1973.
12. Lévy-Leblond, J.M. and Balibar, F., Quantics: rudiments of quantum phys-
ics, North-Holland, 1990.
13. J.E. Marsden and M.J. Hoffmann, Basic Complex Analysis, Freeman and
Co., 1987.
14. Spiegel, M.R., Análisis de Fourier , McGraw-Hill, 1976.
15. M.R. Spiegel, Transformadas de Laplace, Colección Schaum, McGraw-Hill,
1970.
16. Whittaker, E.T. and Watson, G.N., A Course of Modern Analysis, Cam-
bridge Univ. Press, 1988.
17. C.R. Wylie, Matemáticas superiores para ingenierı́a, E. del Castillo, 1969.
Capı́tulo 5

LA TRANSFORMACIÓN
DE LAPLACE

5.1 Introducción

Aunque la transformación de Fourier es una herramienta de cálculo muy


poderosa, su uso no resulta satisfactorio para resolver determinados pro-
blemas. Se adapta bien al estudio de funciones definidas en toda la recta
real, pero para no salirnos del ámbito de las funciones y toparnos con las
distribuciones, las funciones que se consideran han de ser tales que tiendan
rápidamente a cero cuando |x| →∞ (pueden ser, por ejemplo, funciones
del espacio de Schwartz). En muchas situaciones fı́sicas el problema que se
estudia tiene existencia y sentido no para todo x ∈ R, sino sólo a partir
de un punto, digamos x = 0, en adelante. A veces la variable indepen-
diente es el tiempo en el que evoluciona un determinado sistema y se desea
estudiar el problema a partir de un instante inicial, ya que no interesa lo
que ocurre con anterioridad. Para analizar este tipo de situaciones existe
una técnica denominada transformación de Laplace 1 , que vamos a estudiar
a continuación. La transformación de Laplace tiene gran utilidad para
resolver determinados tipos de ecuaciones diferenciales lineales, ası́ como
sistemas de ecuaciones diferenciales lineales. Para estudiar en profundidad
los entresijos de esta técnica resulta imprescindible recurrir a determinadas

1
Pierre Simon de Laplace fue el primero que usó este tipo de expresiones en sus
estudios sobre la teorı́a de las probabilidades.

169
170 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

técnicas propias de la teorı́a de funciones de variable compleja, en especial


cuando se trata de invertir la transformacion de Laplace.

5.2 De la transformación de Fourier a la de Laplace

Como acabamos de comentar, en multitud de aplicaciones prácticas la


función que es el objeto de nuestro estudio sólo nos interesa para valores de
la variable independiente en R+ = [0, ∞), o bien ocurre simplemente que la
función se anula para x < 0. Sea f (x) una función como la que acabamos
de mencionar. Su transformada de Fourier será
1 ∞ 1 ∞
1 −ikx 1
F (k) = √ f (x) e dx = √ f (x) e−ikx dx, (5.2.1)
2π −∞ 2π 0
e invirtiendo la transformación tendremos
1 ∞
1
f (x) = √ F (k) eikx dk. (5.2.2)
2π −∞
Estas expresiones pueden ser de utilidad, pero ya hemos visto que funciones
tan sencillas como la de Heaviside H(x) nos hacen salirnos fuera del campo
de las funciones y obtenemos distribuciones temperadas. En este caso, y
en otros similares, la dificultad estriba en que la integral no es convergente.
Un modo de dar sentido a algunas integrales de este tipo es añadir un factor
de atenuación e−ax (a > 0) a la función f (x). En efecto, definamos una
nueva función asociada a f (x) del siguiente modo2 :
)
0, x < 0,
fa (x) := (5.2.3)
e −ax f (x), x ≥ 0.
La función que nos interesa es f (x), que se anula para x < 0. Apliquemos
la transformada de Fourier a la función fa (x) que acabamos de introducir.
Obtendremos una función que depende de k y de a:
1 ∞
1
Fa (k) = F{fa (x)}(k) = √ e−ax f (x) e−ikx dx
2π 0
1 ∞
1
=√ f (x) e−(a+ik)x dx. (5.2.4)
2π 0
2
Obsérvese que siendo a > 0 y x > 0, esta función tiende a cero cuando x → ∞ más
rápidamente que el inverso de cualquier polinomio si, por ejemplo, la función f (x) está
acotada o no crece demasiado deprisa.
5.3. PRINCIPALES RESULTADOS 171

La transformación inversa nos dará en este caso


1 ∞
−ax 1
e f (x) = √ Fa (k) eikx dk, x > 0, (5.2.5)
2π −∞
de donde 1
1 ∞
f (x) = √ Fa (k) e(a+ik)x dk, x > 0. (5.2.6)
2π −∞
Tanto en la transformación directa como en la inversa, vemos que a y k
intervienen mediante la combinación s := a + ik. Debido a este hecho,
podemos escribir

2π Fa (k) := F (a + ik) = F (s). (5.2.7)

Hagamos también el cambio de variable x ≡ t. Con esto, las fórmulas


(5.2.4) y (5.2.6) se escriben en la forma
1 ∞
F (s) = f (t) e−st dt, s = a + ik, a > 0. (5.2.8)
0
1 1
1 ∞
1 a+i∞
f (t) = F (a + ik) e(a+ik)t dk = F (s) est ds. (5.2.9)
2π −∞ 2πi a−i∞

Estas dos fórmulas constituyen un par de transformadas de Laplace. Esta-


mos usando la notación más extendida, pero siempre es posible encontrar
variantes en la bibliografı́a. Nosotros denotaremos habitualmente por letras
minúsculas las funciones definidas en t ∈ [0, ∞), y por las correspondientes
letras mayúsculas sus funciones transformadas, funciones de la variable
compleja s.

5.3 Principales resultados sobre la transformación


de Laplace

Hemos visto como se llega de manera natural a la definición de la transfor-


mada de Laplace a partir de la transformada de Fourier para funciones f (t)
que sean nulas para t < 0. Ahora bien, surgen de forma inmediata algu-
nas preguntas fundamentales, por ejemplo: ¿cuándo existe la integral que
aparece en la fórmula (5.2.8)? Pues bien, puede ocurrir que la integral no
exista debido a que la función f (t) crezca demasiado deprisa cuando t → ∞;
si hay una singularidad demasiado fuerte en algún punto del intervalo de
172 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

integración, tampoco existirá la integral que nos ocupa. Otra pregunta que
habrá que responder es la siguiente: ¿bajo que condiciones nos permite la
fórmula de inversión (5.2.9) obtener f (t) a partir de F (s) por integración en
la recta a + ik, (k ∈ R)?; y aún más: ¿qué papel juega a para el cálculo de
la transformada de Laplace y de su inversa? Analizaremos estas cuestiones
a continuación de manera un poco más detallada. Pero antes necesitamos
introducir algunas definiciones y resultados para precisar un poco más una
clase de funciones para las cuales podemos efectuar la integral (5.2.8), es
decir, funciones para las cuales vamos a poder encontrar su transformada
de Laplace.

Definición 1: sea f (t) una función medible real o compleja definida para
t ∈ [0, ∞). Diremos que f (t) es de orden exponencial si existen dos cons-
tantes A > 0 y b ∈ R tales que

|f (t)| ≤ A ebt , ∀ t ∈ R+ . (5.3.1)

Toda función de este tipo verifica para ' ∈ [0, ∞) lo siguiente:


21 " 2 1 " 1 "
2 2
2 2
f (t) dt2 ≤ |f (t)| dt ≤ A ebt dt < ∞. (5.3.2)
2
0 0 0

Como ejemplos de funciones de orden exponencial tenemos cualquier poli-


nomio o cualquier función acotada; en el campo opuesto tenemos la función
3
f (t) = et , que no es de orden exponencial (y cuya transformada de Laplace
no existe).

Teorema 1: sea f (t) una función real o compleja definida en R+ y tal que

1. f (t) es de orden exponencial;

2. f (t) está acotada y es integrable en cualquier intervalo finito [0, ']


(esta condición queda satisfecha si, por ejemplo, f (t) es una función
continua a trozos ∀ t ∈ R+ ).

Entonces existe un único número real que depende de f (t), y que llamare-
mos σ(f ), que verifica −∞ ≤ σ(f ) < ∞ y es tal que la integral que nos
proporciona la transformada de Laplace de f (t)
1 ∞
L{f (t)}(s) := F (s) = e−st f (t) dt, (5.3.3)
0
5.3. PRINCIPALES RESULTADOS 173

converge si Re(s) > σ(f ), diverge si Re(s) < σ(f ) y, en general, no podemos
afirmar nada cuando Re(s) = σ(f ). Por tanto F (s) es una función de
variable compleja definida en el abierto Re(s) > σ(f ). Resulta además que
F (s) es analı́tica, en el sentido de las funciones de variable compleja, en ese
abierto y ahı́ se verifica
1 ∞
dF (s)
=− t e−st f (t) dt. (5.3.4)
ds 0

En particular, si σ(f ) = −∞, la función F (s) es entera3 .

Definiciones 2: como ya hemos comentado, la función F (s) definida ante-


riormente en (5.3.3) es la transformada de Laplace de f (t). El número real
σ(f ) se denomina abscisa de convergencia de la transformada de Laplace
de f (t). Se llama semiplano de convergencia a la región del plano complejo
determinada por la condición Re(s) > σ(f ).

Fijémonos en que el teorema 1 da condiciones suficientes, no necesarias,


para la existencia de la transformada de Laplace de una función. Existen
funciones que no son de orden exponencial pero que, sin embargo, poseen
transformada de Laplace, por ejemplo
2 2
f (t) = 2t et cos et o f (t) = t−1/2 .

No obstante, hay que decir que funciones de este tipo es poco probable que
aparezcan en las aplicaciones fı́sicas. Otros resultados de interés son los
siguientes:

Proposición 1: la abscisa de convergencia es tal que

σ(f ) ≤ inf { b ∈ R/ existe A > 0 para el que se verifica |f (t)| ≤ A ebt }.

Teorema 2: si f (t) es continua y existe un y0 > σ(f ) tal que ∀ s que


verifique Re(s) > y0 se tiene que L{f (t)} = F (s) = 0, entonces f (t) = 0,
∀ t ∈ [0, ∞).

Corolario: si las funciones f (t) y g(t) son continuas y sus transformadas


de Laplace son iguales, F (s) = G(s), cuando Re(s) > y0 > σ(f ), σ(g),
entonces f (t) = g(t).
3
La demostración de este resultado y de los siguientes puede verse en el libro de
Marsden y Hoffmann citado en la bibliografı́a.
174 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

Observación 1. De este resultado se sigue que la transformación de


Laplace es inyectiva para funciones continuas, lo cual permite invertir la
transformación y hallar f (t) conocida F (s).

Observación 2. En las aplicaciones fı́sicas suelen aparecer con frecuencia


funciones discontinuas. Obviamente, para ellas no serán completamente
válidos los resultados precedentes. En particular, dos funciones que coin-
cidan en todo R+ salvo en un conjunto de medida nula tendrán la misma
transformada de Laplace. Pero esta “no unicidad” no debe hacernos pensar
que la transformada de Laplace se convierte en una herramienta inútil, ya
que, como ya se ha comentado en capı́tulos precedentes, desde el punto de
vista fı́sico dos funciones que difieran sólo en un conjunto de medida nula
se pueden considerar prácticamente “iguales” a casi todos los efectos.

Observación 3. Aunque en general s ∈ C, en la mayorı́a de las apli-


caciones prácticas este hecho es irrelevante, y puede suponerse que s ∈ R.
Pero atención: esto no es verdad cuando hemos de invertir la transformación
de Laplace usando (5.2.9) y precisamos integrar en el plano complejo. En-
tonces el carácter complejo de s es crucial.

Ejemplo 1: la transformada de Laplace de f (t) = t3 se puede calcular del


siguiente modo:

1 1 ∞'

u (3 −u du
L[t3 ] = t3 e−st dt = e
0 0 s s
1
1 ∞
Γ(4) 3!
= u3 e−u du = = 4.
s4 0 s4 s

Para efecectuar este cálculo hemos supuesto en primer lugar que la variable
s es real; luego hemos efectuado el cambio de variable u = st y hemos
integrado usando las propiedades de la función Γ(z) vistas en el Capı́tulo 1.
De forma implı́cita se está usando una hipótesis adicional: que s > 0, para
que la integral sea convergente; éste es precisamente el valor de la abscisa
de convergencia: σ(t3 ) = 0. Que el resultado obtenido sigue siendo válido
cuando la variable s ∈ C, Re (s) > 0 se puede demostrar por continuación
analı́tica, pero aquı́ es suficiente con mostrar cómo efectuar el cálculo para
s real.
5.4. PROPIEDADES FUNDAMENTALES 175

5.4 Propiedades fundamentales

La gran utilidad de la transformación de Laplace se basa en las siguientes


propiedades, que únicamente enunciamos y que pueden demostrarse con
facilidad como simples ejercicios:

1. Linealidad: sean F (s) = L{f (t)} y G(s) = L{g(t)}, entonces se


verifica

L{αf (t) + βg(t)} = αF (s) + βG(s), ∀ α, β ∈ R. (5.4.1)

2. Primer “teorema de desplazamiento”:

L{eat f (t)} = F (s − a). (5.4.2)

3. Segundo “teorema de desplazamiento”:

L{H(t − τ ) f (t − τ )} = e−τ s F (s). (5.4.3)

Este resultado es útil para calcular la transformada de Laplace de fun-


ciones discontinuas que, como ya se ha visto al estudiar las distribu-
ciones, se pueden escribir usando la función de Heaviside H(t − τ ).
4. Cambio de escala:
1
L{f (at)} = F (s/a), a > 0. (5.4.4)
a
5. Transformada de Laplace de las derivadas: siempre que la función
f (t) sea continua, f ! (t) sea continua a trozos y ambas de orden expo-
nencial, se tiene:
L{f ! (t)} = s F (s) − f (0). (5.4.5)
Para derivadas de orden superior se encuentran expresiones seme-
jantes a ésta, aunque un poco más complicadas.
6. Aún cuando la δ de Dirac no es una función, puede calcularse for-
malmente su transformada de Laplace. Este resultado puede ser de
utilidad en algunas aplicaciones:

1 ∞  a < 0, 0,

−st
L{δ(t − a)} = δ(t − a) e dt = a > 0, e−as ,
0 

a = 0, indeterminado.
176 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

Aunque para a = 0 el resultado está indeterminado, es usual asignar


el valor 1/2, que es la semisuma de los lı́mites laterales de la trans-
formada en 0, para lo cual se pueden dar diversos argumentos (por
ejemplo, considerar el lı́mite débil de una sucesión de funciones que
tienda a la δ).
7. Transformada de Laplace de las derivadas de funciones discontinuas:
si la función f (t) es discontinua con salto finito en algún punto, en-
tonces el resultado (5.4.5) sigue siendo válido, pero haciendo el cálculo
con cuidado y recordando sobre todo que la derivada de una función
discontinua hace aparecer una δ de Dirac “centrada” en cada punto
de discontinuidad.
8. Transformada de Laplace de una integral: si L {f (t)} = F (s), en-
tonces
/1 t 0
F (s)
L f (y) dy = ; (5.4.6)
0 s
/1 t 0 1 a
F (s) 1
L f (y) dy = − f (y) dy. (5.4.7)
a s s 0

9. Un resultado de interés, que generaliza lo expuesto en el teorema 1,


es el siguiente:
dn F (s)
L{tn f (t)} = (−1)n , n = 0, 1, 2, . . . (5.4.8)
dsn
10. Integral de una transformada de Laplace: si F (s) = L {f (t)}
1 ∞ / 0
f (t)
F (u) du = L , (5.4.9)
s t
suponiendo que exista el lı́mite
f (t)
lim .
t→0 t

La integración se efectúa sobre el eje real, para s > σ(f (t)/t).


11. Transformada de Laplace de una función periódica: sea f (t) una
función definida para t ≥ 0, continua a trozos y de perı́odo T , en-
tonces 1 T
1
L{f (t)} = e−st f (t) dt. (5.4.10)
1 − e−sT 0
5.4. PROPIEDADES FUNDAMENTALES 177

12. Teorema del “valor final”. Permite obtener f (∞) ≡ lim f (t), cuando
t→∞
este lı́mite exista, a partir de la transformada de Laplace de f (t):

lim f (t) = lim [s F (s)], s ∈ R. (5.4.11)


t→∞ s→0

13. Teorema del “valor inicial”. Es un resultado que permite recobrar


los valores de f (0), f ! (0), f !! (0), . . . a partir de la transformada de
Laplace de f (t). Para funciones de orden exponencial y continuas a
trozos se verifica lo siguiente:

0 = lim F (s); (5.4.12)


s→∞

lim f (t) = lim [s F (s)]; (5.4.13)


t→0 s→∞

lim f ! (t) = lim [s2 F (s) − s f (0)]; (5.4.14)


t→0 s→∞

lim f (n) (t) = lim [sn+1 F (s) − sn f (0) − sn−1 f ! (0) − · · ·


t→0 s→∞

− · · · − sf (n−1) (0)]. (5.4.15)

Lo anterior es válido siempre y cuando existan los lı́mites involucra-


dos. Los lı́mites en la variable s se efectúan considerando s ∈ R.

14. Derivación respecto de un parámetro: si tenemos una función f (t, λ)


y calculamos su transformada de Laplace respecto de la variable t,
nos dará una función F (s, λ). Entonces, siempre y cuando se posible
introducir la derivada dentro de la integral4 , se verifica:
1 ∞
∂F (s, λ) ∂f (t, λ)
= e−st dt. (5.4.16)
∂λ 0 ∂λ

Las propiedades anteriores que hacen referencia a la transformación de


Laplace directa tienen una lectura “simétrica” y nos dan propiedades de
la transformación de Laplace inversa, que a veces representaremos como
L−1 {F (s)} ≡ f (t) .
En la práctica, para calcular la transformada de Laplace de una cierta
función f (t) pueden utilizarse varios métodos:
4
Las condiciones para poder efectuar esta operación pueden consultarse en las páginas
209–210 del libro de Garnir que se cita en la bibliografı́a.
178 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

a) Hacer directamente la integral (5.3.3) que la define.

b) Desarrollar en serie el integrando f (t) de (5.3.3) y efectuar la inte-


gración término a término. Convendrá cerciorarse en cada caso de
que este procedimiento es legı́timo y de que la serie ası́ obtenida es
convergente.

c) Utilizar alguna de las propiedades anteriormente expuestas para obte-


ner una ecuación diferencial que sea satisfecha por F (s), y que habrá
que resolver para hallar la solución a nuestro problema.

d) Derivar respecto de algún parámetro que aparezca en f (t) para obte-


ner una función más fácil de integrar.

e) Utilizar las tablas de transformadas de Laplace directas e inversas


disponibles en la bibliografı́a.

5.5 La convolución

En el caso de la transformación de Laplace, la convolución se introduce de


manera semejante al caso de la transformación de Fourier; las aparentes
diferencias en la definición provienen del hecho de que ahora las funciones
que manejamos se anulan en el eje real negativo.

Definición 3: sean f (t) y g(t) dos funciones de R+ a C integrables. Defi-


nimos su convolución como la integral siguiente
1 ∞
(f ∗ g)(t) = f (t − u) g(u) du, t ≥ 0. (5.5.1)
0

Como hemos comentado, suponemos que f (t < 0) = g(t < 0) = 0, de


manera que la integración se efectúa realmente entre 0 y t.

Propiedad 1: la convolución es una operación “conmutativa”, ya que


1 ∞ 1 t
(f ∗ g)(t) = f (t − u) g(u) du = f (t − u) g(u) du (5.5.2)
0 0
1 0 1 t
=− f (v) g(t − v) dv = g(t − v) f (v) dv = (g ∗ f )(t),
t 0

sin mas que hacer el cambio de variable t − u = v.


5.6. FÓRMULA DE INVERSIÓN 179

Propiedad 2: la transformada de Laplace de la convolución de dos fun-


ciones es el producto ordinario de las transformadas de Laplace, en efecto,
1 ∞ 1 ∞
−st
L{(f ∗ g)(t)} = e f (t − u) g(u) du dt
0 0
1 ∞ 1 ∞
= g(u) du e−st f (t − u) dt
0 0
1 ∞ 1 ∞
= g(u) du e−sτ e−su f (τ ) dτ
0 −u
1 ∞ 1 ∞
= g(u) e−su du e−sτ f (τ ) dτ
0 −u
$1 ∞ % $1 ∞ %
−su −sτ
= g(u) e du e f (τ ) dτ
0 0

= L{f (t)} L{g(t)}.

Hemos efectuado el cambio de variable t = τ + u y además hemos tenido


en cuenta que f (t < 0) = 0. El resultado que acabamos de demostrar es
completamente análogo al que se verifica para la transformación de Fourier.

5.6 Fórmula de inversión de la transformación de


Laplace

Al deducir las fórmulas de la transformación de Laplace a partir de las de


la transformación de Fourier, obtuvimos la fórmula (5.2.9) que nos per-
mitı́a efectuar la inversión. En ese momento no hicimos ningún comentario
repecto a la validez de dicha expresión. Posteriormente hemos dicho que si
bien s ∈ C (o para ser más precisos, s está en cierto semiplano de C), nor-
malmente este hecho no es relevante y se puede suponer s ∈ R. Incluso al
invertir se puede olvidar del carácter complejo de s si se utilizan las tablas
de transformadas de Laplace. Ahora bien, si no disponemos de tales tablas,
o si, por la razón que fuere, nos vemos obligados a calcular la transformada
de Laplace inversa de cierta función F (s), entonces sı́ que es absolutamente
crucial el carácter complejo de la variable s.
En lo referente a la inversión de la transformada de Laplace, el resultado
fundamental es el expresado en el siguiente teorema, que viene a refinar el
180 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

ofrecido en (5.2.9) y que recuerda resultados ya conocidos sobre la inversión


de la transformación de Fourier.

Teorema 3: si F (s) = L{f (t)}, entonces la función L−1 {F (s)} viene dada
por la expresión

1
1 a+i∞  f (t+) + f (t−) , t ≥ 0,
−1
L {F (s)} = e F (s) ds =
st 2 (5.6.1)
2πi a−i∞ 
0, t < 0.
Por supuesto, si la función f (t) es continua en el punto t0 , entonces allı́ la
integral vale f (t0 ). La integración ha de efectuarse en el plano complejo a
lo largo de una recta s = a + iy, y ∈ R, eligiéndose a de tal modo que todas
las singularidades de F (s) (polos, puntos de ramificación o singularidades
esenciales) queden a la izquierda de la recta s = a + iy; por lo demás, a es
arbitrario.
y

J B

a+iT
R

a x
K O

a-iT

A
L

Figura 4.1: Circuito tı́pico para invertir la trans-


formación de Laplace.

En la práctica, la integral de la fórmula de inversión compleja, también


llamada fórmula de inversión de Bromwich 5 , se suele evaluar utilizando la
siguiente integral de contorno
K
1
est F (s) ds, (5.6.2)
2πi γ(R)
5
Thomas John l’Anson Bromwich (1875–1929), matemático inglés.
5.6. FÓRMULA DE INVERSIÓN 181

siendo γ(R) ≡ ABJKLA el circuito que aparece en la Figura 4.1. Está


formado por un segmento vertical de recta que pasa por el punto (a, 0),
unido adecuadamente a un trozo de circunferencia centrada en el origen y
de radio R. La curva γ(R) no puede contener ninguna de las singularidades
del integrando.
Para ver que la integral de contorno (5.6.2) resulta útil, observemos que
la integral que aparece en (5.6.1) guarda relación con la siguiente:
1 K 1
1 a+iT
1 1
est F (s) ds = est F (s) ds − est F (s) ds.
2πi a−iT 2πi γ 2πi BJKLA
(5.6.3)
Analicemos ahora la ecuación (5.6.3), considerando en ella el lı́mite R → ∞:
la integral del primer miembro es justamente la que nos da la inversión de
la transformación de Laplace; la primera integral del segundo miembro la
podremos calcular usando el teorema de los resı́duos; por lo que respecta a
la segunda de las integrales del segundo miembro (la integral a lo largo del
arco de circunferencia de radio R, que se va al infinito), “es de esperar” que
se anule. Finalmente, suponiendo que sucede lo que acabamos de comentar
(cosa que convendrá comprobar en cada caso práctico concreto, para evi-
tarse desagradables sorpresas), y admitiendo que la función F (s) sólo tiene
polos como singularidades, tendrı́amos lo siguiente:
1 a+i∞ &
1
est F (s) ds = {Residuos de est F (s) en cada uno de sus polos}.
2πi a−i∞
(5.6.4)
Sin embargo, siendo realistas, en general no está asegurado que la integral
a lo largo del arco BJKLA tienda a cero cuando R → ∞. Una condición
suficiente para que se verifique ésto es que existan constantes M, k > 0
tales que
M
|F (s)| < k , ∀ s ∈ BJKLA.
R
Esta condición se satisface si, por ejemplo, F (s) = P (s)/Q(s) siendo P (s)
y Q(s) polinomios tales que el grado de Q(s) es mayor que el grado de P (s).
En este caso concreto, y si suponemos además que los ceros de Q(s) son sólo
simples s1 , s2 , . . . , sm , la aplicación del resultado anterior nos proporciona
inmediatamente la fórmula de inversión en la forma siguiente
m
& P (sk ) sk t
f (t) = L−1 {F (s)} = e , (5.6.5)
Q! (sk )
k=1
182 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

expresión conocida con el nombre de “fórmula de Heaviside”. Cuando hay


ceros múltiples en el denominador se pueden encontrar también resultados
similares a éste, aunque las fórmulas resultan más complicadas que la que
acabamos de indicar6 .
El contorno γ que acabamos de utilizar será el adecuado siempre y
cuando las singularidades de la función (que están todas a la izquierda de
la recta s = a + iy) sean polos. Si la función presenta puntos de ramifi-
cación habrá que modificar ese contorno. Por ejemplo, si existe un punto de
ramificación en s = 0 y tenemos un corte en el eje real negativo, podemos
utilizar la siguiente integral de contorno
K
1
est F (s) ds,
2πi γ $ (R,$)

siendo ahora γ ! (R, 0) ≡ ABDEHJKLN A el circuito que aparece repre-


sentado en la Figura 4.2, construido de manera elemental a partir de dos
segmentos horizontales, uno vertical y dos arcos de circunferencia de radios
R y 0. El segundo arco de circunferencia de radio 0 (que haremos tender a
0), se introduce para salvar la lı́nea de corte. En cada caso concreto habrá
que buscar el contorno de integración adecuado, por lo que no insistimos
más en este aspecto del problema.

D B

R a+iT

E H J

L K e a x

a-iT

A
N

Figura 4.2: Un circuito para invertir la trans-


formación de Laplace cuando hay un punto de
ramificación con corte en el eje real negativo.
6
Véanse detalles en el libro de Marsden y Hoffmann.
5.7. RESOLUCIÓN DE ECUACIONES DIFERENCIALES 183

Para calcular la transformación inversa de Laplace de una función F (s),


además de utilizar la fórmula de inversión compleja, pueden aplicarse los
mismos métodos que se comentaron en el caso de la transformación directa,
pero usándolos en sentido inverso. Hablamos del método de desarrollo en
serie (en este caso habrá que desarrollar la función F (s) en potencias nega-
tivas de la variable s), del uso de las tablas de transformadas de Laplace,
de la utilización de las propiedades que posee esta transformación inversa,
de la derivación respecto de un parámetro, etc.
Respecto a la unicidad de la transformación de Laplace inversa, ya se
comentó algún detalle en la Observación 2 de la Sección 5.3. Digamos
simplemente que existe un teorema debido a Lerch7 según el cual si nos
restringimos a funciones f (t) de orden exponencial y continuas a trozos
en cualquier intervalo finito, la inversión de la transformada de Laplace es
única, salvo la suma de funciones que se anulen en un conjunto de medida
nula.

5.7 Aplicación a la resolución de ecuaciones dife-


renciales

La transformación de Laplace es una herramienta que se usa con bastante


frecuencia para hallar la solución de ecuaciones diferenciales con condi-
ciones iniciales dadas8 . Hemos de indicar que, aunque en principio pueden
resolverse ecuaciones diferenciales no lineales, en realidad su mayor utili-
dad se encuentra al resolver ecuaciones diferenciales lineales, y en particular
las de coeficientes constantes. Para este tipo de ecuaciones diferenciales, la
transformación de Laplace convierte la ecuación diferencial en una ecuación
algebraica, que habrá que resolver. La dificultad estribará luego en invertir
la operación para recuperar la función que nos interesa. La idea es muy
sencilla: se transforma la ecuación diferencial aplicando las propiedades
fundamentales que se han establecido anteriormente, en concreto la linea-
lidad de la transformación de Laplace (5.4.1) y la transformada de Laplace
de la derivada de una función (5.4.5).
Para ilustrar la técnica que estamos comentando, consideremos un ejem-
7
Mathias Lerch (1860–1922), matemático checo.
8
El estudio de las ecuaciones diferenciales se aborda en los temas que siguen a éste,
pero esto no es óbice para comentar ahora los aspectos generales de su resolución apli-
cando el método desarrollado en este capı́tulo.
184 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

plo concreto suficientemente ilustrativo del método en su forma general.

Ejemplo 2: resolvamos la siguiente ecuación diferencial lineal de segundo


orden con coeficientes constantes:

y !! (x) + ay ! (x) + by(x) = g(x); y(0) = C0 , y ! (x) = C1 .

Se supone que a y b son constantes reales y que g(x) es una función conocida.
Las constantes C0 y C1 nos ayudan a elegir una de las infinitas soluciones
de la ecuación, fijando lo que se llaman las condiciones iniciales. Hemos
escrito la variable independiente como x en lugar de t para insistir en el
hecho de que se trata de variables mudas, y que por tanto podemos usar la
que convenga en cada caso. Una observación importante es que si usamos
la transformada de Laplace para hallar y(x) estamos dando por supuesto
que esta función es tal que y(x < 0) = 0 (recordemos que las funciones
para las que se calcula la transformación se suponen nulas en el semieje
real negativo; estrictamente hablando, no importa el valor que tenga ahı́ la
función, pero como luego habremos de efectuar una transformación inversa,
ahı́ sı́ es crucial el hecho de que la función que obtengamos haya de ser nula
para x < 0, según afirma el teorema 3).
Para hallar la solución de nuestro problema, evaluamos la transformada
de Laplace de los dos miembros de esta ecuación teniendo en cuenta que

L{y(x)} := Y (s),
L{g(x)} := G(s),
L{y ! (x)} = s L{y(x)} − y(0) = s Y (s) − y(0),
L{y !! (x)} = s L{y ! (x)} − y ! (0) = s(s Y (s) − y(0)) − y ! (0).

Procediendo de este modo encontrarı́amos fórmulas similares para la trans-


formada de Laplace de una derivada de orden arbitrario. Como suponemos
conocida g(x), damos por hecho que somos capaces de evaluar su transfor-
mada G(s). Nuestro interés se centra en evaluar y(x), pero para ello vamos
a determinar primero su transformada Y (s). Observemos que la ecuación
se modifica como sigue:

L{y !! (x) + ay ! (x) + by(x)} = L{g(x)},


s(s Y (s) − C0 ) − C1 + a(s Y (s) − C0 ) + b Y (s) = G(s),
5.8. COMENTARIOS FINALES 185

de donde
C0 (s + a) + C1 G(s)
Y (s) = + 2 .
s + as + b
2 s + as + b
Fijémonos en que hemos sido capaces de determinar Y (s) sin necesidad
de resolver ninguna ecuación diferencial, tan sólo una ecuación algebraica.
Pero no nos engañemos: no buscamos esta función sino y(x), de manera
que para decir que hemos resuelto el problema aún hay que calcular la
transformada de Laplace inversa de esta función Y (s), y en ese cálculo
podemos encontrarnos con algunas dificultades.
Observemos también que la solución hallada se compone de la suma
de dos términos claramente diferenciados: uno de ellos contiene la depen-
dencia en la función inicial g(x) mientras que el otro depende sólo de la
parte homogénea de la ecuación, es decir, de los términos que contienen la
función y(x) y sus derivadas. Este tipo de ecuaciones diferenciales lineales,
que estamos analizando con un ejemplo, aparecen en muchos problemas
prácticos, sea como las ecuaciones de movimiento de un sistema fı́sico, sea
como la salida de una caja negra arbitraria. Por ejemplo, en teorı́a de con-
trol, en electrónica, y también en biologı́a y en medicina, a veces se trabaja
con sistemas que están sometidos a una entrada o excitación y que pro-
ducen una determinada salida o respuesta. Generalmente se denomina a
g(x) la función de entrada o de excitación y a y(x) la función respuesta. Se
denomina función de transferencia o función del sistema a la que aparezce
multiplicando a G(s), en nuestro caso serı́a (s2 + as + b)−1 . Se puede de-
mostrar que precisamente la situación de los polos de la función de transfe-
rencia en el plano complejo informa sobre la estabilidad o inestabilidad del
sistema descrito por la ecuación diferencial9 . El estudio de la estabilidad
de soluciones usando transformada de Laplace es una lı́nea de estudio muy
interesante, pero en la que no profundizaremos en el presente libro.

5.8 Comentarios finales

En la práctica, y al igual que ocurre con la transformación de Fourier,


en muchas ocasiones el cálculo de las transformadas de Laplace directas
o inversas se suelen hacer con ordenador, usando métodos numéricos. A
este respecto, conviene indicar que la transformada de Laplace, como in-
tegración, es una operación muy estable en el sentido de que pequeños
9
Véase por ejemplo el libro de Wunsch citado en la bibliografı́a.
186 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

errores o fluctuaciones en la función f (t) se promedian al hacer la inte-


gral. Además, el factor e−st hace que, salvo para pequeños valores de s, el
comportamiento de f (t) para valores grandes de t es completamente irre-
levante. Como consecuencia de lo que acabamos de comentar, un cambio
grande en el valor de f (t) para valores grandes de t origina, en general,
un cambio insignificante en F (s). Ahora bien, la operación inversa es muy
inestable: una pequeña variación en los valores de la función F (s) puede
originar un cambio enorme en el resultado de la transformación inversa.
Hasta ahora, no existe ningún método numérico completamente satisfac-
torio para invertir transformadas de Laplace arbitrarias; sin embargo, si
restringimos nuestra atención a funciones que se comporten relativamente
“bien”, entonces sı́ que hay algoritmos disponibles.
Un último comentario para dejar constancia de que al igual que existı́a la
transformada de Fourier discreta, tambien existe una versión discreta de la
transformación de Laplace: la llamada transformación Z. Sin ánimo de en-
trar en los detalles, indicar que esencialmente lo que se hace en primer lugar
es sustituir la función f (t), de una variable continua t, por una sucesión de
valores discretos f (tk ), k = 1, 2, . . ., obtenidos al tomar un muestreo de esta
función variando t en saltos de igual magnitud: tk = kT . La transformación
Z se aplica a este conjunto de valores discretos f (tk ). Como consecuencia
de esta modificación, en lugar de tener una integral, nos aparece una suma
infinita como definición de transformada Z. Esta transformación posee
muchas propiedades semejantes a las de la transformación de Laplace, y
entre sus numerosas aplicaciones están la teorı́a de control, los sistemas
de transmisión de datos (señales digitales) y las ecuaciones en diferencias
finitas10 .

5.9 Problemas
1. Sean f, g dos funciones de tipo exponencial y α, β ∈ C. Pruébese que:

a) αf (t) + βg(t) es de tipo exponencial.

b) L{αf (t) + βg(t)}(s) = αL{f (t)}(s) + βL{g(t)}(s).

c) σ(αf + βg) = máx{σ(f ), σ(g)}.

10
Pueden verse más detalles en el libro de Jeffrey citado en la bibliografı́a.
5.9. PROBLEMAS 187

2. Calcúlese la transformada de Laplace y la abscisa de convergencia de las


siguientes funciones:

a) f (t) = e−at , b) f (t) = tα , α > −1,

c) f (t) = e−at cos bt, d) f (t) = (t + 1)n , n ∈ N,

e) f (t) = senh at, f ) f (t) = e−at tn ,



 0,
 0 ≤ t ≤ 1,
g) f (t) = t cos at, h) f (t) = 1, 1 < t < 2,


0, t ≥ 2.

3. Evalúese la transformada de Laplace de cada una de las siguientes funciones:


t
a) f (t) = (sen at)/t , b) f (t) = e−e ,

c) f (t) = log t, d) f (t) = (log t)2 ,

e) f (t) = {t − na, na < t < (n + 1)a, a > 0, n = 0, 1, 2, . . .},

f ) f (t) = {n, log n < t < log(n + 1)},


)
sen t, 0 ≤ t ≤ π, 2 2
g) f (t) = h) f (t) = e−a t
,
0, t > π,
)
t, 0 < t < a,
i) f (t) = j) f (t) = cosh at cos bt
0, t > a,
)
1, t ∈ A = [0, 1] ∪ [2, 3] ∪ [4, 5] ∪ · · ·
k) f (t) =
0, t ∈ R+ − A
1 t √
l) f (t) = e−τ sen τ dτ, m) f (t) = senh t ,
0
√ √ √
n) f (t) = (cos t)/ t , ñ) f (t) = sen t,
√ √
o) f (t) = ebt (1 + 2bt)/ t , p) f (t) = (ebt − eat )/ t3 .
188 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

4. Calcúlense las siguientes transformadas inversas de Laplace:


s2
a) F (s) = , b) F (s) = log−π (s2 + s),
s3 −1
s+1 s
c) F (s) = , d) F (s) = ,
s(s + 3)2 (s + 1)(s + 2)
G(s) 4s2 + 16s + 16
e) F (s) = , f ) F (s) = ,
s2 + 1 s3 + 5s2 + 9s + 5
6s2 + s − 1 1
g) F (s) = , h) F (s) = ,
s3 + s (s + 1)2
3s3 + 8s2 + 9s + 4
i) F (s) = .
s4 + 5s3 + 9s2 + 7s + 2
5. Usando la transformación de Laplace, resuélvase la ecuación del oscilador
armónico de masa unidad y constante de recuperación k = 3, cuando está
sometido a una fuerza exterior que es f (t) = cos 2t. Exigimos además que
x(0) = 0, x(π/2) = −1.
6. Hállese la transformada de Laplace de la función
1
f (t) = √ e−a/t .
t
Se recomienda hacer el cambio de variable st = a/y en la integral, lo que
permitirá mostrar que la transformada de Laplace que se busca verifica una
ecuación diferencial muy sencilla.
1 ∞
7. Obténgase el valor de la integral cos(t3 ) dt.
0
8. Usando la transformación de Laplace, hállense las soluciones particulares de
las ecuaciones diferenciales
a) y %% + 9y = H(t); y(0) = y % (0) = 0. H(t) es la función de Heaviside.

b) y %% + y = t sen t; y(0) = 0, y % (0) = 1.

c) xy %% + y % + xy = 0; y(0) = 1.

d) y %% + 4y = 4x; y(0) = 1, y % (0) = 5.

e) y %% + 9y = H(t − 1); y(0) = y % (0) = 0.

1 )
t 0, 0 ≤ t < 1; t ≥ 2,
f) y +y+
%
y(τ ) dτ = y(0) = 1.
0 1, 1 ≤ t < 2,
5.9. PROBLEMAS 189

9. Utilı́cese el método de Laplace para resolver los siguientes sistemas:


) %
y1 + y2 = 0,
a) y1 (0) = y2 (0) = 0.
y2% + y1 = 0,
)
y1% + y2% + y1 = 0,
b) y1 (0) = y2 (0) = 0.
y2% + y1 = 3,

10. Considérese el circuito de la figura. Supóngase que la intensidad I(t) es cero


en el instante inicial y que la fuerza electromotriz viene dada por una cierta
función E(t). Calcúlese la intensidad en cualquier instante posterior.

11. Demuéstrese que


a) L{f }(s) → 0 cuando Re(s) → ∞.
b) sL{f }(s) → f (0) cuando Re(s) → ∞.
c) ¿Puede un polinomio ser la transformada de Laplace de una función f (t)?
d) ¿Puede una función entera F (s), no idénticamente nula, ser la transfor-
mada de Laplace de una función f (t)?
12. Resuélvanse las siguientes ecuaciones:
1 t
a) y(t) = t + 2 cos(t − u) y(u) du;
0
1 t
b) 2y(t) − 2t + t /6 =
3
y(t − u) y(u) du;
0

c) y % (t) = 2y(t − 1) + t, y(t ≤ 0) = 0;


1 t
d) y (t) =
%
cos(t − u) y(u) du, y(0) = 1.
0
190 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

13. Hállense las transformadas de Laplace de las funciones

a) f (t) = δ(t − t0 ); b) f (t) = erf (t);

1 − cos t
c) f (t) = Si (t); d) f (t) = ;
t2
a
e) f (t) = Ci (t); f ) f (t) = 2 , a > 0;
t + a2

g) f (t) = E1 (t); h) f (t) = erf ( t);
1 ∞ x
t g(x)
i) f (t) = dx.
0 Γ(x + 1)

14. La función de Dawson se define como


1 t
2 2
D(t) = e−t ex dx.
0

2
Demuéstrese que su transformada de Laplace es L{D(t)} = 4es /4
E1 (s2 /4).
15. Resuélvase la ecuación diferencial
∂u ∂u
x + = x,
∂t ∂x
para x > 0, t > 0 y con las condiciones siguientes: u(x, 0) = 1, u(0, t) = et .
16. Encuéntrese la fórmula que da los números de Fibonacci11 , definidos por la
ley de recurrencia siguiente:

an+2 = an+1 + an , con a0 = 0, a1 = 1.

17. Hállense las transformadas inversas de Laplace de las funciones siguientes


$√ %2 $ %
s−1 1 s+2
a) F (s) = , b) F (s) = ln ,
s s s+1
1 1
c) F (s) = , d) F (s) = ,
s2 senh s s3 + 1

e−x s √
e) F (s) = √ , f ) F (s) = e− s
,
s
s √
g) F (s) = , h) F (s) = cosech2 ( s).
s + e−s
11
Leonardo Pisano Fibonacci (1170–1250), matemático italiano.
5.9. PROBLEMAS 191

18. La función de Scorer se define como


/ 0
exp(−t3 /3)
Hi(−s) = L .
π
Sea x(t) la raı́z real de la ecuación x3 + ax − t = 0, siendo a > 0. Pruébese
que
L{x(t)} = 3−1/3 πs−4/3 Hi(−3−1/3 as2/3 ).
19. La difusión de impurezas en un semiconductor suele describirse usando el
siguiente modelo: se tiene una muestra de semiconductor en estado puro; por
simplicidad, la muestra se supone unidimensional y de longitud semi-infinita,
tomándose su extremo como origen de coordenadas; en el instante t = 0
se coloca una gran fuente de impurezas en contacto con el extremo libre,
siendo C0 la concentracion de dichas impurezas; éstas comienzan entonces
a difundirse a través del semiconductor siguiendo la segunda ley de Fick12 :
la variación de la concentración de impurezas a lo largo de la muestra y a lo
largo del tiempo, C(x, t), viene dada por la ecuación en derivadas parciales13
∂C(x, t) ∂ 2 C(x, t)
=D , D = cte. positiva.
∂t ∂x2
Teniendo en cuenta las condiciones fı́sicas del problema, obténgase la función
C(x, t).
20. Hállese la solución de la ecuación diferencial

xy %% + y % + xy = 0, y(0) = 1, y % (0) = 0,

usando la transformación de Laplace. Escrı́base el resultado final como una


serie de potencias en la variable x.
21. Dibújese la función
1 ) ∞
*
∞ &
f (t) = 2 δ(t − (2n + 1)k) dt ,
0 n=0

y pruébese que
1
L{f (t)} = .
s senh ks
22. Hállese la solución de la ecuación diferencial

x%% (t) + 4x% (t) + 4x(t) = t + δ(t − 2),

que verifica la condición x(0) = x% (0) = 0.


12
Adolf Eugen Fick, fisiólogo alemán que en 1856 publicó el que probablemente es el
primer tratado de fı́sica médica.
13
Véase el volumen II del libro de Alonso y Finn, página 971, citado en la bibliografı́a.
192 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

23. Evalúese L{δ % (t)}.


24. Verfı́quese que la solución de la ecuación integral de Abel
1 x
y(ξ)
F (x) = √ dξ,
0 x−ξ
donde F (x) es conocida e y(x) es la incógnita, viene dada por
1 x
1 d F (ξ)
y(x) = √ dξ.
π dx 0 x−ξ

25. Calcúlese la transformada de Laplace de la función sen t. Puede usarse
el método de desarrollos en serie, pero en ese caso habrá que realizar los
cálculos hasta el final, sumando la serie resultante.
26. Siendo α, β y γ tres constantes arbitrarias, calcúlese la función f (t) cuya
transformada de Laplace es
α s2 + β s + γ
F (s) = .
(s + 1)(s2 + s − 2)
¿Bajo qué condiciones la solución obtenida tiende a 0 cuando t → ∞?
27. Calcúlese la transformada inversa de Laplace de la función
s
.
(s + 1)(s + 2)

28. Hállese la transformada de Laplace de la distribución siguiente (sumando la


serie que aparece):
&∞
1
f (t) = δ(t − n).
Γ(t + 1) n=1

29. Calcúlese la transformada de Laplace inversa de F (s) = e1/s .


30. Por cálculo directo, muéstrese que la transformada de Laplace de la función
1 ∞ −τ 1 ∞ −xt
e e
f (t) = E1 (t) = dτ = dx, (t ≥ 0),
t τ 1 x
es L{E1 (t)}(s) = s−1 ln(s + 1).
31. Usando la transformación de Laplace, hállese la solución de la ecuación
integro-diferencial
1 t 1 t
y %% (t) + y(t) + senh (t − u) y(u) du + cosh (t − u) y(u) du = cosh t,
0 0

que verifica y(0) = −1, y % (0) = 1.


5.10. BIBLIOGRAFÍA 193

32. Calcúlese la transformada de Laplace de la función “integral del coseno”,


Ci (t). (Indicación: supóngase que se puede aplicar el teorema de Fubini.)
33. La ecuación del oscilador armónico de frecuencia w0 sometido a la acción de
una fuerza externa F (t) = senh wt es

d2 y
+ w02 y = senh wt.
dt2
Resuélvase dicha ecuación diferencial usando la transformación de Laplace
y exigiendo las siguientes condiciones: y(0) = 0, y % (2) = 1.
34. Pruébese que
/ 0
1 1 t3 t5
L−1 sen =t− + + ···,
s s (3!)2 (5!)2

evaluando con precisión la forma de la serie que aparece.


35. Hállese / 0
1 1
L −1
cos .
s s
36. Determı́nese
/ 0 / 0
−1 1 −1 1
a) L √ . b) L .
1+ s s + e−s

5.10 Bibliografı́a
1. Alonso, M., y Finn, E.J., Fı́sica, Fondo Educativo Interamericano, 1970.
2. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
3. Butkov, E., Mathematical Physics, Addison-Wesley, 1968.
4. Churchill, R.V., Series de Fourier y problemas de contorno, Ediciones del
Castillo, 1966.
5. Garnir, H.G., Fonctions de variables réelles, Vol. II, Gauthier-Villars, 1965.
6. Jeffrey, A., Linear Algebra and Ordinary Differential Equations, Blackwell
Scientific Publications (1990).
7. Kreyszig, E., Advanced Engineering Mathematics, John Wiley & Sons, 1993.
8. Marsden, J.E., and Hoffmann, M.J., Basic Complex Analysis, Freeman and
Co., 1987.
9. Spiegel, M.R., Análisis de Fourier , McGraw-Hill, 1976.
194 CAPÍTULO 5. LA TRANSFORMACIÓN DE LAPLACE

10. Spiegel, M.R., Transformadas de Laplace, Colección Schaum, McGraw-Hill,


1970.
11. Watson, E.J., Laplace Transforms, Van Nostrand Reinhold, 1981.
12. Wunsch, A.D., Complex Variables with Applications, Addison-Wesley, 1994.
13. Wylie, C.R., Matemáticas superiores para ingenierı́a, Ediciones del Castillo,
1969.
Capı́tulo 6

ECUACIONES
DIFERENCIALES
ORDINARIAS: MÉTODOS
ELEMENTALES DE
INTEGRACIÓN

6.1 Introducción

Las ecuaciones diferenciales son, sin duda, una de las herramientas de


cálculo más útiles a disposición de todo cientı́fico. Un conocimiento ade-
cuado de ellas y una cierta habilidad para hallar sus soluciones resultan
fundamentales para poder resolver gran parte de los problemas que se
le presentan. Antes de abordar el estudio de la teorı́a de las ecuaciones
diferenciales, resulta muy interesante e ilustrativo comentar someramente
la influencia mutua que durante muchos siglos han tenido la fı́sica y las
matemáticas, de forma muy especial en este campo que nos ocupa ahora.
Desde los tiempos de Newton1 , las ecuaciones diferenciales han sido la forma
natural de describir matemáticamente las leyes naturales, en concreto las
1
Isaac Newton (1642–1727), eminente fı́sico y matemático inglés, descubridor de las
leyes de la mecánica, de la ley de la gravitación y uno de los inventores del cálculo
diferencial e integral.

195
196 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

de la fı́sica (recordemos las palabras de Galileo2 : “el libro de la naturaleza


está escrito con caracteres matemáticos”). Tras el desarrollo del cálculo
infinitesimal por Newton, Leibniz3 y Fermat4 , los matemáticos del siglo
XVII y XVIII usaron las herramientas a su disposición para abordar el
estudio de nuevos problemas fı́sicos. De este modo, pronto se vieron en-
frentados con la necesidad de resolver cuestiones que requerı́an el uso de
nuevas técnicas matemáticas, lo que en particular hizo que se desarrollara
muy ampliamente la teorı́a de las ecuaciones diferenciales.
Entre los principales problemas que contribuyeron al desarrollo las ecua-
ciones diferenciales están los relacionados con la teorı́a de la elasticidad, la
forma de vigas y cuerdas sometidas a fuerzas diversas, las oscilaciones del
péndulo, la forma precisa de la superficie terrestre, y diversos problemas
de astronomı́a (como el estudio del movimiento de la luna y los llamados
problemas de los dos y tres cuerpos). En el análisis de todos estos temas
aparecieron muy diversas ecuaciones diferenciales ordinarias y en derivadas
parciales, y se gestó también el desarrollo posterior de nuevas ramas de las
matemáticas, como son la geometrı́a diferencial y el cálculo variacional.
Con posterioridad las ecuaciones diferenciales también han sido usadas
para formular todas las teorı́as fı́sicas modernas, como son el electromag-
netismo, la mecánica cuántica o la teorı́a de la relatividad general, y para
elaborar modelos matemáticos que describen determinados tipos de sis-
temas biológicos (por ejemplo sistemas ecológicos en los cuales coexisten
varias especies de seres vivos, en los cuales unas actúan como depredadores
y otras como presas), quı́micos (desde los modelos más elementales relacio-
nando velocidades de reacción de diversos compuestos, hasta aquellos que
describen reacciones quı́micas periódicas o caóticas), industriales, económi-
cos (donde se aparece la tı́pica curva logı́stica), en ingenierı́a (ecuaciones
que rigen la transmisión de señales por cables, o ecuaciones en aerodiná-
mica, por citar sólo dos), o en arquitectura (flexiones de vigas, análisis
de esfuerzos y deformaciones de estructuras constructivas), por mencionar
algunas disciplinas tanto teóricas como aplicadas.
En este primer capı́tulo dedicado al tema, tras establecer la notación
2
Galileo Galilei (1564–1642), fı́sico y matemático italiano que realizó importantes
contribuciones cientı́ficas, en especial en mecánica y astronomı́a.
3
Gottfried Wilhelm von Leibniz (1646–1716), matemático y filósofo alemán.
4
Históricamente siempre ha habido una polémica sobre la paternidad del cálculo in-
finitesimal, atribuida por unos a Leibniz y por otros a Newton. Pero según se ha descu-
bierto recientemente, también Pierre de Fermat lo desarrolló de manera independiente.
6.2. NOCIONES GENERALES 197

y la terminologı́a que vamos a usar posteriormente, analizaremos diversas


técnicas de resolución de ecuaciones diferenciales ordinarias que fueron de-
sarrolladas esencialmente en el siglo XVIII, gracias al trabajo de un gran
grupo de brillantes matemáticos (demasiados para mencianar todos aquı́)
que realizaron destacados descubrimientos. Para un interesante y ameno
repaso de la evolución del tema que nos ocupa recomendamos la lectura de
los capı́tulos 21 y 29 del libro de Kline citado en la bibliografı́a.
Debemos quedarnos con la idea de que en los albores de esta disciplina
los matemáticos se ocuparon sobre todo de hallar soluciones a cuestiones
concretas en términos de funciones elementales, y cuando esto no era posi-
ble, en forma de desarrollos en serie. En general no se planteaban dudas
relativas a si el problema que se estudiaba tenı́a o no solución, ya que al es-
tar basados en situaciones fı́sicas concretas, las soluciones “debı́an” existir.
Hacia 1775 se vio que la posibilidad de hallar nuevos métodos generales de
integración de ecuaciones diferenciales estaba esencialmente agotada. Du-
rante el siglo XIX las lı́neas de investigación en el campo de las ecuaciones
diferenciales cambiaron de rumbo, y usando los nuevos métodos rigurosos
del análisis matemático se realizaron avances muy importantes en temas
como la determinación de las condiciones de existencia y unicidad de las
soluciones de las ecuaciones, el estudio sistemático de familias de funciones
especiales de gran relevancia teórica y aplicada, y el análisis de la esta-
bilidad de las soluciones y de su comportamiento cualitativo, entre otros.
Algunos de estos temas serán abordados en capı́tulos posteriores.

6.2 Nociones generales

Precisemos en primer lugar el objeto de nuestro estudio: una ecuación dife-


rencial es una relación existente entre una o varias variables independientes
y una o varias variables dependientes y sus derivadas. Nuestro objetivo será
hallar la solución o soluciones de una expresión de ese tipo. En los siguientes
capı́tulos no nos vamos a ocupar de las ecuaciones en derivadas parciales
(aquellas que presentan varias variables independientes, y que serán objeto
de estudio en el segundo volumen de esta obra), como es por ejemplo

$ % $ %$ %
∂ 3 u(x, y) ∂u(x, y) ∂u(x, y)
u(x, y) = .
∂ 2 x∂y ∂x ∂y
198 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

Sólo nos interesarán las ecuaciones diferenciales ordinarias, que son rela-
ciones que involucran únicamente una variable independiente.

Definición 1: si llamamos x a la variable independiente e y, y ! , y !! , . . .


a la variable dependiente y a sus derivadas sucesivas respecto de x, y
F : Rn+2 → R es una función de n + 2 variables, F (x1 , x2 , . . . , xn+2 ),
llamaremos ecuación diferencial ordinaria a toda relación de la forma

F (x, y, y ! , . . . , y (n) ) = 0. (6.2.1)

Llamaremos a y(x) la función incógnita. Diremos que tenemos una solución


a la anterior ecuación diferencial cuando hayamos encontrado una función
y = y(x) que la satisfaga idénticamente.
Como norma general, supondremos que la variable independiente toma
valores reales, al igual que la función, pero podrı́an estudiarse también
las ecuaciones diferenciales en el campo de los números complejos (y de
hecho, un análisis en profundidad de la teorı́a requiere de manera natural
el uso de variables complejas5 . No obstante, dado que en la mayorı́a de las
aplicaciones las variables involucradas son reales, resulta muy conveniente
estudiar precisamente esta situación, que es justamente lo que nosotros
haremos).

Definición 2: se llama orden de la ecuación diferencial al de la derivada


más alta que aparezca en la ecuación. Ası́ por ejemplo, la ecuación (6.2.1)
es de orden n. Supondremos que el orden es siempre finito.

Definición 3: el grado de una ecuación diferencial está definido sólo cuando


ésta pueda escribirse como un polinomio en las derivadas de la función; en
ese caso el grado será el del monomio que contenga la derivada de mayor
orden.
Ası́ por ejemplo,
(y !! )5 − (y ! )7 = e−2x
es una ecuación diferencial ordinaria de segundo orden y quinto grado. Sin
embargo
tan y !! = ex + ln y !
es de segundo orden pero no tiene grado definido.
5
Un excelente referencia para estudiar estos aspectos de la teorı́a es el libro ya clásico
de Ince, que aparece en la bibliografı́a.
6.2. NOCIONES GENERALES 199

Nuestro objetivo será encontrar soluciones a ecuaciones diferenciales del


tipo (6.2.1). Estas soluciones pueden darse de varias maneras diferentes:
pueden ser soluciones analı́ticas, soluciones numéricas o soluciones gráficas.
Las numéricas serán soluciones aproximadas del problema que estemos
considerando, obtenidas utilizando diversos algoritmos implementados en
un ordenador. En este libro no vamos a analizar este tipo de métodos
numéricos, que son estudiados por una especialidad de las matemáticas
denominada Análisis Numérico, que ha realizado grandes progresos en los
últimos tiempos. No obstante usaremos algunos resultados obtenidos numé-
ricamente para ilustrar el contenido del texto.
Las soluciones gráficas son útiles, sobre todo, para analizar ecuaciones
de primer orden del tipo y ! (x) = f (x, y(x)). Se basan en la interpretación
geométrica de esta última ecuación: en cada punto (x, y(x)) de la gráfica de
la curva solución tenemos definido el vector (1, y ! (x)) que es un vector tan-
gente a la misma en el punto x. La ecuación diferencial y ! (x) = f (x, y(x))
nos da el conjunto de tangentes a la curva solución. Se puede proceder a
realizar un dibujo aproximado de los valores de (1, f (x, y(x))) en una cierta
región y conocer ası́ el comportamiento de las curvas solución.
Nosotros nos vamos a centrar en el estudio de las soluciones analı́ticas.
Esto no quiere decir que nos vayan a interesar exclusivamente las solu-
ciones exactas de las ecuaciones diferenciales, entre otras cosas porque sólo
en determinadas ocasiones pueden hallarse tales soluciones analı́ticas exac-
tas. De hecho veremos que a veces la solución tendremos que darla como
una serie infinita, que truncada convenientemente nos puede dar suficiente
información (sin ser la solución exacta del problema).
Matizando un poco más lo que acabamos de decir, cuando hablamos de
la solución analı́tica de una ecuación diferencial conviene distinguir entre
(a) la solución general de una ecuación diferencial, (b) una solución parti-
cular que verifica ciertas condiciones iniciales, (c) lo que se llaman curvas
integrales y (d) la integral completa. De manera más precisa:

Definición 4: una familia de funciones y = ϕ(x, C1 , C2 , . . . , Cn ), que de-


pende de n parámetros independientes, y verifica la relación (6.2.1) se de-
nomina la solución general de la ecuación diferencial.

Definición 5: una solución particular de la ecuación se obtiene asig-


nando unos valores numéricos a las constantes C1 , C2 , . . . , Cn , en princi-
pio arbitrarias, que aparecen en la solución general. Normalmente estos
200 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

valores se determinan imponiendo unas condiciones iniciales de la forma


(n−1)
y(x0 ) = y0 , y ! (x0 ) = y0! , . . . y (n−1) (x0 ) = y0 , que fijan los valores de
la función y sus derivadas hasta el orden n − 1 en un punto x0 , pero las
condiciones iniciales pueden darse de otras formas diferentes.

Definición 6: a veces sucede que no toda solución de la ecuación diferencial


puede ser obtenida a partir de la solución general mediante una adecuada
elección de los parámetros; en este caso diremos que la ecuación presenta
soluciones singulares.

Definición 7: una curva integral de una ecuación diferencial es una curva


de ecuación implı́cita φ(x, y) = 0, que puede ser o puede no ser expresable
en la forma explı́cita y = y(x), y que verifica en todo punto la relación
(6.2.1).

Definición 8: una ecuación ψ(x, y, C1 , C2 , . . . , Cn ) = 0 dependiente de n


parámetros independientes se llama integral completa de la ecuación dife-
rencial (6.2.1) si toda curva integral puede obtenerse a partir de ella, sin
más que elegir convenientemente los n parámetros.

Ejemplo 1: consideremos la ecuación diferencial y ! = −x/y. El campo de


vectores tangentes es (1, −x/y), que está definido en todos los puntos del
plano salvo en el origen (si y = 0 las respectivas tangentes son paralelas al
eje de ordenadas6 ). Las soluciones son
dy x
= − ⇒ ydy = −xdx ⇒
dx y

y2 x2
⇒ = − + C ⇒ x2 + y 2 = 2C ≥ 0. (6.2.2)
2 2
Obsérvese que hemos efectuado algunas manipulaciones en la ecuación; de
hecho la hemos reescrito en forma diferencial, para ası́ hacer más evidente
el proceso de integración que nos lleva a la solución. Hemos obtenido una
familia uniparamétrica de √
circunferencias, todas ellas centradas en el origen
y de radio variable R = 2C. √ Estas curvas √en R , vienen dadas por la
2

unión de dos funciones: y = R2 − x2 , y = − R2 − x2 , con −R ≤ x ≤ R.


6
En efecto, el vector (y, −x) es colineal con el vector (1, −x/y), y por lo tanto es un
vector tangente a la curva en el punto (x, y). Tomando ahora el lı́mite cuando y → 0 del
nuevo vector tangente resulta que (y, −x) → (0, −x), y el vector tangente en los puntos
del eje de abscisas (y = 0) es paralelo al eje ordenadas (x = 0) .
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 201

Por cada punto del plano, excepción hecha del origen, pasa una de estas
circunferencias. Vemos que las soluciones de (6.2.2) no vienen dadas por
funciones de la forma y = y(x), lo cual justifica√la distinción entre soluciones
de la ecuación diferencial (las funciones y = ± R2 − x2 ) y curvas integrales
(o integral completa) de la ecuación diferencial (en este caso x2 + y 2 = R2 ).
Estamos dando por supuesto que el problema que se nos presente en
forma de ecuación diferencial estará bien planteado, pero pudiera suceder
que, por algún motivo (por ejemplo, por un error en el planteamiento del
modelo con el que estemos trabajando), no fuera éste el caso. Si el problema
de ecuaciones diferenciales que se está estudiando no está correctamente
planteado, pudiera ser que la ecuación en cuestión no tuviera solución o
bien que esta solución no fuese única (intuitivamente lo “razonable” serı́a
pensar que un problema concreto posee una única solución). En el capı́tulo
siguiente daremos algunos resultados que nos informan sobre ciertas condi-
ciones bajo las cuales podemos asegurar que una ecuación diferencial tiene
solución con unas condiciones iniciales dadas, y ésta es única.
Antes de pasar a analizar los diversos casos especiales que se mostrarán
en el resto de este tema, queremos hacer un último comentario, a guisa de
consejo, referido a la conveniencia de verificar las soluciones: debido a las
manipulaciones algebraicas que se efectúan durante el proceso de resolución,
a veces sin darnos cuenta puede introducirse como supuesta solución alguna
función que no lo sea (en muchas ocasiones simplemente por errores en
los cálculos), por lo que resulta deseable que siempre se verifique que las
soluciones obtenidas satisfacen la ecuación diferencial de partida.

6.3 Métodos elementales de integración

En esta sección haremos un repaso de algunos de los métodos de resolución


de ecuaciones diferenciales de primer orden. Como ya hemos visto, una
ecuación de ese tipo será una expresión en forma implı́cita

F (x, y, y ! ) = 0. (6.3.1)

Siempre que sea posible, conviene despejar la derivada de mayor orden (en
este caso el orden es uno) y escribir la ecuación anterior en su forma normal:

y ! (x) = f (x, y). (6.3.2)


202 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

En general, una ecuación diferencial de este tipo, por sencilla que en prin-
cipio pueda parecer, es difı́cil de resolver y no existen procedimientos gene-
rales para tratarla. En caso necesario, y como ya hemos comentado, puede
recurrirse a efectuar un cálculo numérico aproximado.
Hay algunos casos sencillos, pero muy útiles, para los cuales sı́ se conocen
métodos de resolución. La existencia de estos métodos está ligada a la
presencia de ciertas simetrı́as en la ecuación, lo que permite utilizar las
técnicas matemáticas de la teorı́a de grupos de Lie 7 para explicar por qué
es posible encontrar solución a esos tipos de ecuaciones. No obstante, no
es éste nuestro objetivo, pues en muchos casos pueden obtenerse resultados
usando métodos no muy complicados, como los que vamos a explicar, de
manera que nos centraremos en mostrar cómo proceder ante determinadas
ecuaciones, en concreto cómo hallar las soluciones generales en los casos
que siguen.

6.3.1 Ecuaciones en variables separables

Son de la forma
dy g(x)
y ! (x) = = o bien g(x) dx = h(y) dy. (6.3.3)
dx h(y)

La solución general se obtiene integrando


1 1
g(x) dx = h(y) dy + C, (6.3.4)

siendo C una constante de integración, en principio arbitraria, de la que no


hay que olvidarse en los cálculos explı́citos. El problema está en principio
resuelto ya que se ha reducido a dos cuadraturas (integrales indefinidas)
que, bien es cierto, pueden ser difı́ciles de evaluar en forma cerrada, o
incluso imposibles. El Ejemplo 1 resuelto en (6.2.2) es de tipo separable.
Otra posibilidad es que, aunque se trate de una ecuación diferencial
que no tenga las variables separadas como se ha indicado, mediante un
cambio de variables adecuado (tanto de la variable dependiente como quizá
de la independiente) la ecuación se transforme en una del tipo (6.3.3). Esta
posibilidad tendrá que ser considerada en cada caso concreto.
7
Marius Sophus Lie (1842–1899), matemático noruego que introdujo los grupos que
llevan su nombre para estudiar sistemáticamente las ecuaciones diferenciales.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 203

6.3.2 Ecuaciones homogéneas

Son aquellas en las que la función f (x, y) que aparece en la forma normal
de la ecuación (6.3.2) es una función homogénea de grado n = 0, es decir,

f (λx, λy) = λn f (x, y), con n = 0, λ ∈ R. (6.3.5)

Este caso se puede resolver efectuando un cambio en la función incógnita


y adoptando como nueva variable dependiente o función incógnita una que
podemos llamar v(x) definida ası́: y(x) = x v(x). Esto permite obtener una
ecuación en variables separables para v(x) del tipo (6.3.3):
dv f (1, v) − v
y ! = v + xv ! = f (x, xv) = f (1, v) ⇒ = .
dx x
Otra forma de resolver las ecuaciones homogéneas es usando coordenadas
polares:

x = r cos θ, y = r sen θ, r ∈ [0, ∞), θ ∈ [0, 2π),


dx = cos θ dr − r sen θ dθ, dy = sen θ dr + r cos θ dθ.

Entonces la ecuación diferencial escrita en la forma dy = f (x, y) dx se


reescribe como:

sen θ dr + r cos θ dθ = f (cos θ, sen θ)(cos θ dr − r sen θ dθ).

De aquı́ se obtiene la siguiente ecuación diferencial en variables separables


de la variable radial r en función del ángulo polar θ:
1 dr cos θ + f (cos θ, sen θ) sen θ
=− .
r dθ sen θ − f (cos θ, sen θ) cos θ
Hemos reducido el problema a cuadraturas y en determinadas circunstan-
cias la integral podrá hallarse sin demasiada dificultad. La técnica expuesta
de pasar de coordenadas cartesianas a polares es bastante útil para resolver
algunos tipos de problemas.
6
Ejemplo 2: la ecuación xy ! + y = x2 + y 2 es homogénea, como se puede
ver al escribirla en forma normal, de manera que podemos efectuar el cam-
bio de función incógnita y = xv(x):
6
! −y + x2 + y 2 dv dx
y = , √ = .
x 1 + v 2 − 2v x
204 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

La integral que resulta en la variable v es complicada, pero puede evaluarse


en forma cerrada, y el resultado final es
6 6
(x2 + 5y 2 − 4y x2 + y 2 )(y + x2 + y 2 ) = C. (6.3.6)

La gráfica de algunas soluciones se muestra en la Figura 6.1. Se han


elegido arbitrariamente los valores C = 1 (curva continua), C = 8 (curva
discontinua de trazo pequeño) y C = −8 (curva discontinua de trazo
grande). Para dibujarlas es mejor representar la solución en coordenadas
polares, en las cuales las curvas solución anteriores adoptan la forma
! "1/3
C
r= . (6.3.7)
(1 + sen θ)(1 − 2 sen θ)2

-4 -2 2 4

-2

-4

Figura 6.1: Varias curvas solución del Ejemplo 2.

Démonos cuenta de que todas las curvas anteriores presentan ası́ntotas


para θ = π/6, 5π/6, 3π/2, valores para los que se anula el denominador de
(6.3.7).
Sobre este ejemplo se puede entender adecuadamente lo que hemos lla-
mado anteriormente la solución general, con C arbitrario (las ecuaciones
(6.3.6) o (6.3.7)), y soluciones particulares, dando diversos valores al pará-
metro C (las curvas representadas en la Figura 6.1). Observemos también
como un cambio de variables puede transformar una solución general de la
forma ψ(x, y, C) = 0, en una solución general del tipo r = ϕ(θ, C) = 0.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 205

6.3.3 Ecuaciones lineales

Las ecuaciones lineales no homogéneas tienen la siguiente estructura:

y ! + P (x) y = Q(x). (6.3.8)

La solución general de esta ecuación se obtiene sumando una solución par-


ticular cualquiera de esta ecuación lineal no homogénea, a la solución ge-
neral de la ecuación lineal homogénea asociada8

y ! + P (x) y = 0, (6.3.9)

que, obviamente, es una ecuación en variables separables y se resuelve por


cuadraturas, como ya se ha explicado anteriormente. Para hallar la solución
particular puede procederse de manera “intuitiva” (buscando por tanteo la
solución, dada la forma concreta que presente el término no homogéneo),
o bien pueden usarse dos métodos que se analizarán con más detalle al
estudiar las ecuaciones diferenciales lineales de orden n: el de los coeficientes
indeterminados y el de variación de las constantes.
Una forma completamente equivalente de hallar la solución general de
la ecuación (6.3.8), y más sistemática, es laL siguiente: se multiplica
Lx toda
x
la ecuación por el “factor integrante” exp{ P (t) dt} (aquı́ denota la
integral indefinida con variable final x), y se observa que ası́ conseguimos
tener en el primer miembro la derivada de un producto
$ /1 x 0% /1 x 0
d
y(x) exp P (t) dt = Q(x) exp P (t) dt ;
dx

sin más que integrar, se llega a la solución general


' Lx (! 1 x ' Lz ( "
− P (t) dt
y(x) = e C+ Q(z) e P (t) dt
dz

' L x ( ' L x (1 x ' Lz (


− −
= C e P (t) dt
+ e P (t) dt
Q(z) e P (t) dt dz.(6.3.10)

En esta última ecuación es evidente lo que ya se anunció anteriormente:


que esta solución puede expresarse como suma de la solución general de la
homogénea (el término resultante de hacer Q(x) = 0 en (6.3.10)) más una
8
La demostración de este aserto se dará de forma general en el Capı́tulo 8 dedicado
al estudio de las ecuaciones lineales de orden n.
206 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

solución particular de la ecuación completa (el término que queda al hacer


C = 0).

Ejemplo 3: la ecuación xy ! − 4y = x3 es lineal no homogénea. La solución


general de la homogénea es muy sencilla: y = Cx4 . Dado que el término no
homogéneo es un monomio, podemos intentar hallar una solución particular
de la ecuación completa en la forma yp = αxβ ; al sustituir esta expresión en
la ecuación diferencial encontramos una solución única con α = −1, β = 3,
de manera que la solución general de la ecuación es

y = Cx4 − x3 .

La misma solución se encuentra aplicando directamente la fórmula (6.3.10),


pero recuérdese que en este caso hay que usar siempre la forma normal de
la ecuación diferencial (6.3.2). En la Figura 6.2 aparecen dibujadas algunas
curvas de la familia de soluciones.

0.2

C=!2
0.1
C=!1

C=1
-1 -0.5 0.5 1
C=2
-0.1

-0.2

Figura 6.2: Varias curvas solución del Ejemplo 3.

6.3.4 Ecuaciones de Bernouilli

Corresponden a un tipo de ecuación diferencial no lineal propuesto por


Jakob Bernouilli9 , que presenta la siguiente forma general:

y ! + P (x) y = Q(x) y α , con α ∈ R, α != 0, 1. (6.3.11)


9
Jakob Bernouilli (1654–1705), matemático suizo.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 207

Se impone α != 0, 1 para no tener una simple ecuación lineal (que acabamos


de ver cómo se resolverı́a). Pues bien, haciendo en (6.3.11) el cambio de
función incógnita v = y 1−α , o bien y = v 1/(1−α) , se transforma la ecuación
y se obtiene una ecuación lineal no homogénea
dv
+ (1 − α)P (x) v = (1 − α)Q(x),
dx
cuya solución general se halla siguiendo el método ya indicado en el apar-
tado precedente. Una vez calculada v(x, C), hay que deshacer el cambio de
variable para llegar finalmente a y(x, C).

Ejemplo 4: la ecuación y ! = xy 2 + 2xy es de Bernouilli. Se efectúa el


cambio y = v −1 , y se obtiene la ecuación lineal
v ! + 2xv + x = 0,
2
cuya solución general resulta ser v = C e−x − 1/2, de modo que la solución
general de la ecuación de Bernouilli inicial es
2
y= .
2C e−x2 −1
En las Figura 6.3 y 6.4 pueden verse algunas curvas solución para diversos
valores de la constante de integración C.

-3 -2 -1 1 2 3
C=0.4
-2
C=0.1

-4 C=0
C=!0.1
-6
C=!10
-8

-10

Figura 6.3: Varias curvas sin singularidades,


solución del Ejemplo 4.

Obsérvese que de la solución se deduce que si 2C ≥ 1 las gráficas presen-


tarán singularidades, cosa que no sucede en caso contrario. En efecto, para
208 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

que la solución presente singularidades, el denominador habrı́a de anularse.


2 2
Esto sucede siempre que 2C e−x − 1 = 0, o equivalentemente 2C = ex .
2
Pero como x2 ≥ 0, entonces ex ≥ 1. De esta manera, habiendo fijado
2
C tal que 2C ≥ 1,6la ecuación 2C = ex admite soluciones en x, que son
justamente x = ± ln(2C), siendo ln(2C) ≥ 0, pues 2C ≥ 1. En todos los
casos las curvas solución son funciones pares de la variable independiente.

4 C=1

2
C=5
-3 -2 -1 1 2 3
-2 C=15

-4

-6

Figura 6.4: Curvas singulares solución del Ejemplo 4.

6.3.5 Ecuaciones de Riccati

Las ecuaciones de Riccati10 son ecuaciones diferenciales no lineales de la


forma:
y ! = A(x) y 2 + B(x) y + C(x). (6.3.12)
En general, sólo podremos hallar la solución general de una ecuación de
este tipo si somos capaces de encontrar primero una solución particular
cualquiera (para lo cual, desafortunadamente, no existe ningún método
conocido). Suponiendo que lo hayamos logrado, y denotando yp (x) la
solución particular, procederemos a efectuar el cambio de función incógnita
1
y(x) = yp (x) + , (6.3.13)
v(x)
10
Jacopo Francesco, Conde Riccati de Venecia (1676–1754). Introdujo la ecuación que
lleva su nombre para facilitar la resolución de ecuaciones de segundo orden.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 209

lo que nos reduce el problema a una ecuación diferencial lineal en v(x)

v ! (x) + (2yp (x)A(x) + B(x))v(x) + A(x) = 0,

que es una ecuación lineal, de las ya estudiadas con anterioridad.

Ejemplo 5: para la ecuación de Riccati y ! + y 2 = x2 + 1 puede hallarse


por inspección una solución particular muy sencilla yp = x. Efectuando las
transformaciones que acabamos de indicar, se llega a la solución general
2 2
e−x e−x
y(x) = x + Lx = x + √ .
C + 0 e−t dt
2
C + 2π erf x

La función erf x que aparece en la solución es la función error, de la que


se habló en el Capı́tulo 1, dedicado a la función Γ(z) y a otras funciones
relacionadas con ella. Debido a las propiedades de la función error, en
concreto al hecho de que sea una función monótona creciente y que toma
valores en el intervalo (−1, 1), cuando la constante C toma valores en el
√ √
intervalo (− 12 π, 12 π), la solución de la ecuación diferencial presentará

una singularidad; en caso contrario, no habrá ninguna singularidad ( 12 π ≈
0.886). En la Figura 6.5 se representan algunas gráficas del sumando que
contiene la función error (se ha prescindido del término lineal que es la
solución particular trivial).

4
C=2
2
C=0.9
-3 -2 -1 1 2 3
C=!0.884
-2
C=!0.9
-4

-6

Figura 6.5: Varias curvas que representan el término


no lineal de la solución del Ejemplo 5 para diversos
valores de la constante de integración.
210 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

Ampliación: relación entre las ecuaciones de Riccati y de Schrödinger.


La ecuación de Riccati aparece ı́ntimamente relacionada con una ecuación diferencial
de segundo orden. Para verlo, efectuamos en (6.3.12) el cambio v(x) = A(x) y(x), lle-
gando a la ecuación
$ %
A$ (x)
v$ = + B(x) v + C(x) A(x) + v 2 .
A(x)

Ahora se pasa a la función incógnita z(x) relacionada con v(x) por la relación v = −z $ /z,
y tras algunas operaciones simples se llega a la forma final
$ %
A$ (x)
z $$ − + B(x) z $ + C(x) A(x) z = 0.
A(x)

Conocida la solución general de esta ecuación lineal de segundo orden, la de la ecuación


de Riccati será
z $ (x)
y=− .
A(x) z(x)
Una observación importante: la solución general de la ecuación de segundo orden tendrá
dos constantes arbitrarias. Al deshacer los cambios para hallar y(x) ha de desaparecer una
de ellas, ya que la ecuación de Riccati es de primer orden, y por lo tanto su solución general
sólo puede tener una constante arbitraria. La ecuación de segundo orden que hemos
obtenido es equivalente a la de Riccati, pero en general no será más fácil de resolver. La
importancia de esta relación es, sobre todo, teórica, y aparece en determinados trabajos de
mecánica cuántica de reciente publicación (la ecuación de segundo orden que aquı́ aparece
puede relacionarse directamente con la ecuación de Schrödinger; para más información
véase el trabajo de B. Mielnik citado en la bibliografı́a, y su relación con el Ejemplo 5).

6.3.6 Ecuaciones con coeficientes lineales

Son aquellas del tipo

(a1 x + b1 y + c1 ) dx + (a2 x + b2 y + c2 ) dy = 0, (6.3.14)

o bien, de forma más general, y siendo f (w) una función de una variable,
$ %
! a1 x + b1 y + c1
y =f . (6.3.15)
a2 x + b2 y + c2

Observemos que si igualamos a cero el numerador y el denominador que


aparecen en el argumento de f en (6.3.15) obtenemos las ecuaciones de dos
rectas. Se presentan dos posibilidades:
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 211

a) Las dos rectas son paralelas (o coincidentes). En este caso a1 /a2 =


b1 /b2 = λ, lo que permite elegir como nueva variable u(x) = a2 x+b2 y,
de modo que, derivando respecto de x tendremos u! = a2 + b2 y ! ,
y substituyendo en (6.3.15), obtenemos una ecuación en variables
separables:
$ %
du λu + c1
= a2 + b2 f .
dx u + c2

b) Las dos rectas se cortan en un punto (x0 , y0 ). Se verificará la desigual-


dad a1 /a2 != b1 /b2 , de manera que introduciendo nuevas variables

dy dw
w = y − y0 , t = x − x0 , = ,
dx dt

y aplicando la regla de la cadena, la ecuación se transforma en


$ %
dw a1 t + b1 w
=f ,
dt a2 t + b2 w

que es una ecuación homogénea resoluble, por ejemplo, mediante una


nueva transformación w(t) = t v(t), como ya hemos visto.

Ejemplo 6: la ecuación (3x − 2y − 2)y ! = 2x + 3y + 3 es de coeficientes


lineales; el punto de corte de las dos rectas paralelas es x = 0, y = −1, por
lo que el cambio adecuado es t = x, w = y + 1, seguido de w = tv, llegando
ası́ a la ecuación en variables separables

dv 1 + v2
t =2 .
dt 3 − 2v

Tras integrar y deshacer los cambios de variables se obtiene como solución


general
! $ %"
1+y
exp 3 arctan = C(x2 + (1 + y)2 ).
x

Geométricamente las soluciones son espirales que tienen como punto de


convergencia común (0, −1) y se van abriendo en sentido antihorario (se
propone al lector que verifique esta afirmación).
212 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

6.3.7 Ecuaciones de Lagrange

Las ecuaciones de Lagrange presentan la siguiente estructura general:


y = x g(y ! ) + f (y ! ), (6.3.16)
siendo f y g funciones conocidas y con g(y ! ) != y ! . Para resolver estas
ecuaciones, se efectúa el cambio de variable y ! = p, que pasará a ser la nueva
variable independiente. Derivando los dos miembros de (6.3.16) respecto
de p obtenemos
dy dy dx dx dx
= =p = g(p) + x g ! (p) + f ! (p),
dp dx dp dp dp
es decir
dx g ! (p) f ! (p)
= x+ , (6.3.17)
dp p − g(p) p − g(p)
que es una ecuación lineal que permite, en principio, obtener x = x(p, C).
Con esta ecuación y la original (6.3.16) obtenemos la solución general en
forma paramétrica (siendo p el parámetro y C la constante de integración):
)
x = x(p, C),
y = x(p, C) g(p) + f (p).

Ejemplo 7: consideremos la ecuación de Lagrange y = x (y ! )2 + (y ! )3 .


Introduciendo la variable p = y ! llegamos a la ecuación diferencial lineal
dx 2 −3p
+ x= ,
dp p − 1 p−1
cuya solución general puede determinarse y permite ofrecer la solución de
la ecuación de partida en forma paramétrica:
! "
2C + 3p2 − 2p3 2 2C + 3p − 2p
2 3
x(p, C) = , y(p, C) = p + p
3
.
2(p − 1)2 2(p − 1)2
(6.3.18)
Dando valores a p obtenemos las curvas solución, estando formadas todas
ellas por dos ramas separadas, una obtenida al tomar p ∈ (−∞, 1] y la otra
p ∈ [1, ∞). De (6.3.18) se deduce que para todas estas curvas
lim y(p) = −∞, lim x(p) = ∓∞.
p→±∞ p→±∞

Aparecen además puntos en los cuales la función no es derivable. Véanse


algunas de estas curvas en la Figura 6.6.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 213

10 -6 -4 -2 2 4
-2
5
-4
-6
-4 -2 2 4
-8
-5
-10
-10 -12

Figura 6.6: Dos soluciones de la ecuación de


Lagrange del Ejemplo 7. En la primera se ha
tomado C = 1 y en la segunda C = −1.

6.3.8 Ecuaciones de Clairaut

Las ecuaciones de Clairaut11 son del tipo de las de Lagrange, con g(y ! ) = y ! :

y = x y ! + f (y ! ). (6.3.19)

Sin embargo se analizan separadamente por presentar ciertas particulari-


dades. En principio es fácil ver que estas ecuaciones no pueden resolverse del
mismo modo que las de Lagrange, ya que en la fórmula (6.3.17) tendrı́amos
un 0 en el denominador. Para determinar la solución se deriva en (6.3.19)
respecto de x: y ! = y ! + x y !! + f ! (y ! ) y !! , es decir (x + f ! (y ! )) y !! = 0. De
este modo aparecen dos tipos de soluciones:

a) Si y !! = 0 entonces tendremos y ! = C, que llevado a (6.3.19) propor-


ciona la solución general

y = C x + f (C),

una familia uniparamétrica de rectas.


11
Alexis-Claude Clairaut (1713–1765), matemático francés. Participó en una expe-
dición a Laponia para medir la distancia del grado de longitud terrestre y trabajó en
diversos problemas de geodesia, astronomı́a y matemáticas.
214 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

b) Si x + f ! (y ! ) = 0, como se ha de verificar también (6.3.19), llegamos


a la siguiente solución en paramétricas (con parámetro y ! = p):
)
y = p x + f (p),
0 = x + f ! (p).

Nótese que esta última solución no tiene ninguna constante inde-


terminada. Se trata de una solución singular de la ecuación que,
geométricamente, es la envolvente de la familia de rectas dada en
a). Cuando sea posible, una representación gráfica resulta altamente
ilustrativa de la situación que se presenta. Para más detalles, véase
el apéndice al final de este apartado.

Ejemplo 8: resuélvase la ecuación y = xy ! + ln y ! . Derivando respecto de x


se llega a la condición y !! (x+1/y ! ) = 0. De aquı́ se siguen dos posibilidades:

• Puede ser que y !! = 0, de donde y ! = C, y teniendo en cuenta la


ecuación de partida (y = xy ! + ln y ! ), se deduce la solución general

y = Cx + ln C,

que es una familia uniparamétrica de rectas.

• La segunda opción es que x + 1/y ! = 0. Esta ecuación junto con


la de partida nos proporcionan una solución en paramétricas (con
parámetro y ! ). En este caso particular que estamos analizando, es
posible eliminar el parámetro entre las dos ecuaciones (cosa que no
siempre sucederá en el caso general) y se llega a la solución

y = −1 − ln(−x).

Obsérvense dos detalles importantes: esta solución, que no está in-


cluı́da en la familia de rectas antes halladas, sólo tiene sentido para
x < 0; además no aparece ninguna constante arbitraria, de manera
que es una solución singular (es la envolvente de la familia de rectas,
que está situada en el semiplano x < 0).

Véanse las gráficas que ilustran lo que acabamos de explicar en la Figura 6.7.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 215

-4 -3 -2 -1 1

-2

Figura 6.7: Familia de rectas soluciones de la


ecuación de Clairaut del Ejemplo 8 y en trazo más
grueso la envolvente de la familia uniparamétrica.

Apéndice: envolvente de la familia uniparamétrica de curvas f (x, y, C) = 0.

Definición 9: dada una familia de curvas en el plano, f (x, y, C) = 0, diremos que la


curva γ es una envolvente de la familia si se verifican estas dos condiciones:

i) En cada punto P ∈ γ hay un único miembro de la familia que es tangente a γ.

ii) Todo miembro de la familia es tangente a γ en algún punto.

El siguiente teorema nos da condiciones para hallar envolventes:

Teorema 1: sea z = f (x, y, C) una función de clase C 2 (D), D ∈ R 3 . Si en D se verifica

∂f (x, y, C)
f (x, y, C) = 0, = 0, (6.3.20)
∂C

y también
2 2
2 ∂f (x, y, C) ∂f (x, y, C) 2
2 2
∂ 2 f (x, y, C)
det 2 2 ∂x ∂y
2 2
2 %= 0, %= 0, (6.3.21)
2 ∂ f (x, y, C) ∂ 2 f (x, y, C) 2 ∂C 2
2 2
∂x∂C ∂y∂C

entonces la familia f (x, y, C) = 0 tiene una curva envolvente de ecuaciones paramétricas


(6.3.20).

Ejemplo 9: y = ±1 son las envolventes de la familia de circunferencias (x−C)2 +y 2 = 1.


216 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

0.5

-3 -2 -1 1 2 3

Figura 6.8: Familia de circunferencias del


Ejemplo 9 y sus rectas envolventes.

6.3.9 Ecuaciones diferenciales exactas

Consideremos ahora una ecuación diferencial de primer orden escrita en la


forma
M (x, y) dx + N (x, y) dy = 0, (6.3.22)

con M (x, y), N (x, y) ∈ C 1 (D), siendo D un abierto de R2 . C 1 (D) es el


conjunto de las funciones en D que son continuas y admiten derivadas
primeras continuas. Vamos a introducir en primer lugar algunas nociones
de la teorı́a de formas diferenciales.

Definición 10: llamaremos forma diferencial o 1-forma a toda expresión


del tipo
ω = M (x, y) dx + N (x, y) dy. (6.3.23)

Definición 11: diremos que ω es una forma diferencial exacta si existe


una función f (x, y) ∈ C 2 (D) tal que

∂f (x, y) ∂f (x, y)
= M (x, y), = N (x, y). (6.3.24)
∂x ∂y

Se dice que f (x, y) es la función potencial y se tiene ω = df (x, y).

Definición 12: diremos que ω es una forma diferencial cerrada si dω = 0.


Proposición 1: si ω es una forma diferencial exacta con función potencial
f , entonces una solución de la ecuación diferencial (6.3.22) es

f (x, y) = C. (6.3.25)
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 217

Demostración: si suponemos que ω es exacta, al diferenciar (6.3.25) para


eliminar la constante arbitraria C, teniendo en cuenta (6.3.24), obtenemos

df ∂f ∂f
0= = dx + dy = M (x, y) dx + N (x, y) dy,
dx ∂x ∂y

que es la ecuación diferencial de partida.


La solución (6.3.25) admite una interpretación geométrica muy sencilla.
En efecto, esta ecuación puede escribirse equivalentemente como
)
z = f (x, y),
f (x, y) = C ≡ (6.3.26)
z = C,

de manera que la solución está dada por el corte de dos superficies, en


concreto de z = f (x, y) con los planos z =cte, y son por tanto las curvas
de nivel de la superficie (como se representa en la Figura 6.9).

-10
0
4
-50
-2
-4 0

0 -4
-4
4 -4 -2 0 2 4

Figura 6.9: La superficie z = −x4 /20 − y 2 − x


y algunas de sus curvas de nivel.

Teorema 2: consideremos la forma diferencial ω = M (x, y) dx+N (x, y) dy,


con M, N ∈ C 1 (D), siendo D abierto y simplemente conexo12 en R2 . Con
12
Un abierto D en R 2 es simplemente conexo si es conexo y toda curva cerrada regular
en D puede ser deformada en D, manteniéndose cerrada y regular, hasta contraerse a un
punto z0 ∈ D. No vamos a dar aquı́ una definición precisa de conexión simple (ni del
218 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

estas condiciones, ω es exacta si y sólo si se verifica


∂M ∂N
= . (6.3.27)
∂y ∂x
Demostración:
a) Si ω es exacta, entonces existe una función f tal que se cumple (6.3.24). En virtud de
la igualdad de Schwarz de las parciales cruzadas se tiene
∂2f ∂f ∂M ∂N
= ≡ = .
∂x∂y ∂y∂x ∂y ∂x
b) Supongamos ahora que se verifica (6.3.27). Sea (x0 , y0 ) un punto en D que escogemos
arbitrariamente. Sea (x, y) cualquier otro punto en D y sea γ un camino arbitrario que
va desde (x0 , y0 ) hasta (x, y) manteniéndose en D. Debido a las condiciones impuestas
en el teorema, la integral
1
f (x, y) = (M (x, y) dx + N (x, y) dy) (6.3.28)
γ

no depende de la elección del camino γ. Como D es un conjunto conexo, dos puntos cua-
lesquiera pueden unirse mediante una linea poligonal cuyos segmentos están contenidos
en D. Además la poligonal puede ser escogida de tal forma que los segmentos que la
constituyen sean paralelos a los ejes. Vamos a tomar el camino γ de esta manera. Para
mayor sencillez vamos a suponer que es de la forma que aparece en la Figura 6.10.

(x o,y) (x,y)

(x o, y o)

Figura 6.10: Esquema para la demostración


del teorema 2.

La generalización a una poligonal más complicada es inmediata. En nuestro caso, la


función definida en (6.3.28) puede escribirse como
1 y 1 x
f (x, y) = N (x0 , t) dt + M (t, y) dt. (6.3.29)
y0 x0

concepto relacionada de curva homótopa a un punto), que el lector puede encontrar en


la página 105 del libro de Marsden y Hoffmann citado en la bibliografı́a. Coloquiamente
hablando, suele decirse de manera muy gráfica que un dominio (abierto y conexo) es
simplemente conexo si no tiene agujeros.
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 219

La primera integral se realiza sobre el segmento vertical y la segunda sobre el horizontal.


Nuestro objetivo consiste ahora en demostrar que f (x, y) es la función potencial corres-
pondiente a la forma diferencial M (x, y) dx + N (x, y) dy. Sin más que usar el primer
teorema fundamental del cálculo integral llegamos a que

f (x, y) = M (x, y)
∂x
y 1
x
∂ ∂M (t, y)
f (x, y) = dt + N (x0 , y). (6.3.30)
∂y x0 ∂y
Aplicando la hipótesis del teorema, en el sentido que
∂M (t, y) ∂N (t, y)
= ,
∂y ∂t
en la ecuación (6.3.30) se obtiene
1 x
∂ ∂N (t, y)
f (x, y) = dt + N (x0 , y) = N (x, y) − N (x0 , y) + N (x0 , y) = N (x, y),
∂y x0 ∂t
con lo cual hemos demostrado que la forma ω = M (x, y) dx + N (x, y) dy admite una
función potencial, que resulta ser f (x, y). Por lo tanto ω es exacta.

En la práctica, la función potencial f (x, y) se determina resolviendo el


par de ecuaciones diferenciales en derivadas parciales (6.3.24), que son muy
sencillas. Para ello se calcula la integral indefinida de M (x, y) respecto de
x, o equivalentemente la de N (x, y) respecto de y:
1 1
f (x, y) = M (x, y) dx + φ(y) = N (x, y) dy + ψ(x). (6.3.31)

Nos aparecen unas funciones arbitrarias φ(y) o ψ(x) debido a que sólo
se integra respecto de una de las variables, no respecto de la otra; estas
funciones se calculan imponiendo la condición de que f (x, y) en (6.3.31)
sea la función potencial (6.3.24).

Ejemplo 10: sea (3x2 + 2xy) dx + (x2 + y) dy = 0. Se comprueba tri-


vialmente que esta ecuación es exacta pues verifica (6.3.27). Para calcular
la función potencial integramos por ejemplo respecto de x tratando a la
variable y como otra variable independiente:
1
f (x, y) = (3x2 + 2xy) dx = x3 + x2 y + φ(y).

Y ahora evaluamos la derivada parcial respecto de y de lo anterior, y lo


igualamos a N (x, y):
∂ dφ
f (x, y) = x2 + = (x2 + y).
∂y dy
220 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

De aquı́ se deduce una ecuación diferencial para la función φ(y), cuya


solución es φ = y 2 /2 + cte, con lo que la función potencial (que siempre
está definida salvo una constante aditiva arbitraria) es

y2
f (x, y) = x3 + x2 y + .
2
La solución general de la ecuación diferencial es: x3 + x2 y + y 2 /2 = C.
Algunas curvas solución se muestran en la Figura 6.11.

-7.5 -5 -2.5 2.5 5 7.5

-2

-4

-6

-8

Figura 6.11: Algunas curvas solución del Ejemplo


10, con valores C = −30, C = −5, C = 0, C = 5,
C = 30; algunas constan de dos trozos y otras de
uno solo.

Conviene tener presente que si la forma diferencial no verifica (6.3.27)


e intentamos aplicar el método desarrollado anteriormente, llegaremos a
contradicciones insalvables.

6.3.10 Factores integrantes

Si la forma diferencial ω dada en (6.3.23) es tal que


∂M ∂N
!= , (6.3.32)
∂y ∂x
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 221

diremos que ω no es exacta. En este caso, llamamos factor integrante de


la ecuación diferencial a toda función µ(x, y) tal que la forma diferencial
ω ! = µω

ω ! = (µ(x, y) M (x, y)) dx + (µ(x, y)N (x, y)) dy (6.3.33)

sea exacta. Veremos en el capı́tulo siguiente, dedicado al estudio de la


existencia y unicidad de las soluciones de las ecuaciones diferenciales, que
si f (x, y) ∈ C 1 (D), donde D es un abierto de R2 , por cada punto (x0 , y0 ) ∈ D
pasa una única solución de la ecuación y ! = f (x, y(x)). Supongamos que
M (x, y), N (x, y) ∈ C 1 (D), y que en D la función N (x, y) no se anula en
ningún punto. Escribamos la ecuación diferencial
dy M (x, y)
M (x, y) dx + N (x, y) dy = 0 como =− = f (x, y). (6.3.34)
dx N (x, y)
Entonces f (x, y) ∈ C 1 (D) y la ecuación (6.3.34) tiene siempre una única
solución que pasa por (x0 , y0 ) ∈ D. Esto quiere decir que la ecuación
M (x, y) dx + N (x, y) dy = 0 es siempre soluble y, por lo tanto, debe de
existir un factor integrante (otro asunto diferente es que podamos hallarlo
fácilmente o no).
Respecto a la interpretación geométrica de M (x, y) dx + N (x, y) dy = 0
y de su solución, sea {x = x(t), y = y(t)} una solución, siendo t es un cierto
parámetro. Llevando esta solución a la ecuación y derivándola respecto de
t, obtenemos

M (x(t), y(t)) x! (t) + N (x(t), y(t)) y ! (t) = 0. (6.3.35)

Como (x! (t), y ! (t)) es un vector tangente a la solución dada en el punto


determinado por el valor del parámetro t, de la ecuación (6.3.35) inferimos
que el campo vectorial bidimensional (M (x, y), N (x, y)) nos da en cada
punto (x0 , y0 ) ∈ D un vector perpendicular a la solución de la ecuación
diferencial que pasa por ese punto.
En virtud del teorema 2, la existencia de un factor integrante µ(x, y)
equivale a la igualdad
∂(µM ) ∂(µN )
= ,
∂y ∂x
es decir
! "
∂M (x, y) ∂N (x, y) ∂µ(x, y) ∂µ(x, y)
− µ(x, y) = N (x, y) − M (x, y) .
∂y ∂x ∂x ∂y
222 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

Llegamos a una ecuación diferencial en derivadas parciales con función


incógnita µ(x, y). Cambiamos un problema por otro equivalente que no
es más sencillo de resolver. No hay un método general que permita ha-
llar la solución de esta ecuación en derivadas parciales, sólo algunas reglas
que se deducen de ella para resolver ciertos casos particulares, como son
los siguientes (usaremos indistintamente las siguientes notaciones para las
derivadas parciales: Mx ≡ ∂x M ≡ ∂M/∂x):

1. Para que exista un factor integrante que sólo dependa de x tendrá


que ocurrir
!1 x "
1 dµ My − N x
= = h(x) ⇒ µ(x) = exp h(t) dt .
µ dx N

2. Para que exista un factor integrante que sólo dependa de y tendrá


que ocurrir
!1 y "
1 dµ My − N x
=− = g(y) ⇒ µ(y) = exp g(t) dt .
µ dy M

Otros casos aparecen como problemas propuestos al final del capı́tulo.


Un detalle importante que conviene tener en cuenta es el siguiente: por
pasar de M (x, y) dx + N (x, y) dy = 0 a

(µ(x, y) M (x, y))dx + (µ(x, y)N (x, y))dy = 0,

puede ocurrir que se elimine alguna solución válida o que se introduzcan


soluciones espúreas, por lo que conviene verificar el resultado obtenido al
final del proceso. Finalizamos este apartado con un resultado que puede
ser de utilidad en ciertas ocasiones.

Proposición 2: si la ecuación diferencial M (x, y) dx+N (x, y) dy = 0 posee


dos factores integrantes α(x, y) y β(x, y) tales que α(x, y) != cte β(x, y),
entonces la solución general de la ecuación diferencial es

α(x, y) = C β(x, y), (6.3.36)

siendo C una constante arbitraria.


Demostración: consideremos las dos formas diferenciales exactas
df = α(x, y)M (x, y) dx + α(x, y)N (x, y) dy, (6.3.37)
dg = β(x, y)M (x, y) dx + β(x, y)N (x, y) dy. (6.3.38)
6.3. MÉTODOS ELEMENTALES DE INTEGRACIÓN 223

Dividiendo término a término tenemos


df α(x, y)
= .
dg β(x, y)
Pero f (x, y), g(x, y) no son funcionalmente independientes, ya que el jacobiano del cambio
de variables (x, y) → (f, g) se anula idénticamente:
9 : 9 :
∂(f, g) fx fy αM αN
det = det = det = 0,
∂(x, y) gx gy βM βN

y la condición de no anulación del jacobiano es la de independencia funcional. Por tanto,


existe una cierta relación entre estas dos funciones: f (x, y) = F (g(x, y)). Con esto,
α(x, y) df dF (g(x, y))
= = ≡ ϕ(g(x, y)).
β(x, y) dg dg
Veamos ahora que (6.3.36) es la solución general de la ecuación diferencial; derivando en
esa expresión respecto de x
! " ! "
dy dy
(∂x α) + (∂y α) β − (∂x β) + (∂y β) α = 0,
dx dx

de donde despejando y $ , usando (6.3.36) y operando, tenemos


(∂x α)β − α(∂x β) (∂x α) − C(∂x β) N (∂x α) − CN (∂x β)
y$ = − =− =−
(∂y α)β − α(∂y β) (∂y α) − C(∂y β) N ((∂y α) − C(∂y β))

[−α(∂x N ) + α(∂y M ) + M (∂y α)] − C[−β(∂x N ) + M (∂y β) + β(∂y M )


= −
N ((∂y α) − C(∂y β))]

[α − Cβ][(∂y M ) − (∂x N )] + M [(∂y α) − C(∂y β)] M (x, y)


= − =− ,
N ((∂y α) − C(∂y β))] N (x, y)
que es la ecuación diferencial de partida. En la serie de igualdades precedente hemos
usado (6.3.36) y el hecho de que (6.3.37) y (6.3.38) son formas exactas.

6.3.11 Ecuaciones de primer orden en forma implı́cita

Comentaremos en esta sección algunos métodos para resolver ecuaciones


del tipo F (x, y, y ! ) = 0 que no puedan ponerse en forma normal. Conside-
raremos los siguientes casos:

a) Ecuaciones resolubles en y. Son de la forma y = f (x, y ! ). Para


intentar resolverlas tomamos y ! = p y derivamos y = f (x, p):

dy dp dp p − (∂x f )
= y ! = p = (∂x f ) + (∂p f ) ⇔ = = ϕ(x, p).
dx dx dx (∂p f )
224 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

La ecuación diferencial resultante queda reducida a la forma normal.


Si pudiéramos resolverla, conocida la solución p(x, C), volverı́amos a
la ecuación de partida y la solución final serı́a y = f (x, p(x, C)).
b) Ecuaciones resolubles en x. Son aquellas que se pueden poner como
x = f (y, y ! ). Tomando y ! = p, queda x = f (y, p), y derivando con
respecto a x se tiene
dy dp dp
1 = (∂y f ) + (∂p f ) = (∂y f ) p + p (∂p f )
dx dx dy
o bien
dp 1 − p (∂y f )
= = ψ(y, p).
dy p (∂p f )
Esta ecuación ya está escrita en la forma normal. Si somos capaces de
encontrar una solución a esta ecuación del tipo p = p(y, C), la solución
que buscamos será x = f (y, p(y, C)), dada en forma implı́cita.
c) Ecuaciones en las que falta alguna de las variables. Son de uno de los
dos tipos siguientes:
ϕ(x, y ! ) = 0, o ψ(y, y ! ) = 0.
Si pueden despejarse las variables x o y en función de y ! ≡ p, el
problema se reduce a una de las cuadraturas siguientes:
1 1
i) x = g(p), y = p(x) dx = p g ! (p) dp + C = y(p, C);
1 1 1
dy dy h! (p) dp
ii) y = h(p), x = = = + C = x(p, C).
y (x)
! p p
En ambos casos la solución viene dada en forma paramétrica (siendo
p el parámetro que describe las curvas).
Si en ϕ(x, y ! ) = 0 no es posible despejar ninguna de las variables, se
puede proceder ası́: llamando y ! = p, la ecuación ϕ(x, p) = 0 es una
curva en el plano (x, p), y conocida una representación paramétrica
suya {x = a(t), p = b(t), ϕ(a(t), b(t)) = 0}, tendrı́amos
1
dy
= b(t) ⇒ dy = b(t) dx = b(t) a (t) dt ⇒ y = a! (t) b(t) dt + C,
!
dx
que junto con x = a(t) nos da la solución en paramétricas.
El mismo procedimiento funciona para las ecuaciones ψ(y, y ! ) = 0,
ψ(y ! , y + xg(y ! )) = 0, ψ(x, P (x)y ! + Q(x)y) = 0, o ψ(y/x, y ! ) = 0.
6.4. PROBLEMAS 225

6.3.12 Ecuaciones de segundo orden reducibles a ecuaciones


de primero

Existen algunas ecuaciones de segundo orden que mediante ciertas trans-


formaciones pueden reducirse a ecuaciones de primer orden. En concreto
veremos dos casos que son resolubles de este modo:

a) Cuando no aparece explı́citamente la variable y: F (x, y ! , y !! ) = 0. Se


efectúa el cambio ya conocido y ! = p, con lo que y !! = dp/dx y la
ecuación pasa a ser de primer orden: F (x, p, dp/dx) = 0. Si somos
capaces de hallar p = p(x, C1 ), aún habrá que efectuar una integración
para tener y = y(x, C1 , C2 ).
b) Cuando no aparece explı́citamente la variable x: F (y, y ! , y !! ) = 0.
Como antes, tomamos y ! = p, de modo que y !! = dp/dx = p dp/dy,
con lo cual tenemos F (y, p, p dp/dy) = 0; si esta ecuación permite
determinar la función p = p(y, C1 ), entoces tras integrar tendremos
x = x(y, C1 , C2 ).

Ejemplo 11: la ecuación y !! = 1 + (y ! )2 puede resolverse usando los dos


métodos anteriores, pues no depende ni de x ni de y. Demuéstrese que
puede hallarse fácilmente la solución, que resulta ser
y = ln[ sen (x + C1 )] + C2 .

6.4 Problemas
1. Calcúlese la solución general de las siguientes ecuaciones diferenciales:
a) (cos2 y − x sec y)y % = sen y. b) (x + ln y)y % = 1.

c) x2 y % + 2xy = y 3 . d) xyy % = (y 2 + 1)1/2 .

e) xy % − 4y = x3 . f ) y % (x + y) = x − y.

g) y % = xy 2 + 2xy. h) y % + y = ex .

i) sen x cos y + y % cos x tan y = 0. j) ex sen y + (ex cos y + 1/y)y % = 0.

k) xy % − y = (x2 − y 2 )1/2 . l) y % = lx + my + n.

m) y % + y = ex y 1/2 . n) x(y % − x cos x) = y.

ñ) y(1 − x2 )1/2 dy = arcsen xdx. o) 4y % − y tan x + y 5 sen 2x = 0.


226 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

2. Resuélvanse las siguientes ecuaciones diferenciales:


a) y % (x + y) = y − x. b) xy % + y = y 2 ln x.
2
c) (y % )−1 + 2xy = e−y . d) 6y(x + y) + x(4x + 9y)y % = 0.

e) (cos y − sen y + x)y % + 1 = 0. f ) (3x2 + y 2 )y % + 3xy = 0.

g) y % + 2y tan x = sen x. h) 4y % + 2y cos x = ( sen 2x)/y.


2
i) xy % = y + xey/x . j) y % + 2xy = e−x .

k) xy % + (x2 + y 2 )1/2 = y. l) (1 + x2 )y % + xy = xy 2 .

m) (3x + y − 3)y % = y − x + 2.

n) (cos x − x cos y)y % = sen y + y sen x.


2 2
ñ) (y 2 exy + 4x3 )dx + (2xyexy − 3y 2 )dy = 0.

o) (x + 1)dy − (y + 1)dx = (x + 1)(y + 1)1/2 dx.

p) (y sen (y/x) − x cos(y/x))xy % = (x cos(y/x) + y sen (y/x))y.

3. Hállese la solución de estas ecuaciones:


a) y % = x3 + 2y/x − y 2 /x. b) y % = 2 tan x sec x − y 2 sen x.

c) y % = 1 + yx−1 − y 2 x−2 . d) y % = x−2 − yx−1 − y 2 .

e) 2xyy % + (1 + x)y 2 = ex . f ) ey (y % + 1) = ex .

g) xy % + y = x2 (1 + ex )y 2 . h) xy % + y = (x2 + y 2 )1/2 .

i) (x − y)2 y % = 4. j) y % cos y + sen y = x2 .

k) (3x + 2y + 1)dy + (4x + 3y + 2)dx = 0. l) (x2 − y 2 )dy = 2xydx.

m) y % sen y + sen x cos y = sen x. n) ydx + (1 + y 2 e2x )dy = 0.

ñ) (x2 y + y 2 )dx + x3 dy = 0. o) y % = (x2 + 2y − 1)2/3 − x.

4. Los aceleradores lineales de partı́culas se usan en fı́sica de altas energı́as


para acelerar partı́culas cargadas. Supóngase que una partı́cula α se somete
a una aceleración constante en un dispositivo de esta tipo, de manera que su
velocidad pasa de ser 2 · 103 m/s a 104 m/s en un lapso de 10−3 s. Evalúese
la aceleración y la distancia recorrida por la partı́cula α en los 10−3 s.
5. Evalúese p y q para que xq y p sea un factor integrante de la ecuación
xr y s (lydx + mxdy) + xα y β (λydx + µxdy) = 0, lµ − mλ != 0.
6.4. PROBLEMAS 227

6. Hállense las envolventes de las siguientes familias uniparamétricas de curvas:

a) x2 + y 2 = C, b) y 2 = 2xC − C 2 ,

c) y = cos(x + C), d) (x − C)2 = 3y 2 − y 3 .

7. Encuéntrese la familia de curvas tales que el segmento determinado sobre


una recta tangente cualquiera por el punto de contacto con la curva y el eje
de ordenadas, es seccionado en su punto medio por el eje de abscisas.
8. Encuéntrese la familia de curvas tales que es constante el área de la región
comprendida por el eje de abscisas, la recta tangente a una cualquiera de
las curvas y una recta paralela al eje de ordenadas que pasa por el punto de
tangencia.
9. Encuéntrese la familia de curvas tales que el ángulo que forman la tangente
y la normal en cualquier punto de una curva de la familia tiene como bisec-
triz al radio vector del citado punto. (En problemas que involucran radios
vectores es preferible usar coordenadas polares.)
10. Encuéntrese la familia de curvas tales que la longitud de arco entre x = a y
x, es igual a x2 /2.
11. Encuéntrese la familia de curvas tales que el área de la región determinada
por la curva, las rectas x = a, x = x y el eje de abscisas, es proporcional a
la diferencia de ordenadas.
12. Encuéntrese la familia de curvas tales que pasan por el origen y el volumen
generado por el giro en torno al eje de abscisas de la superficie determinada
por la curva, el eje de abscisas y una recta paralela al eje de ordenadas por
(x, 0), es igual al volumen generado por el giro en torno al eje de ordenadas
de la superficie determinada por la curva, el eje de ordenadas y una recta
paralela al eje de abscisas por (0, y).
13. Encuéntrese la familia de curvas tales que el radio vector de un punto
cualquiera y la recta tangente a la curva en ese mismo punto se intersectan
según un ángulo constante β.
14. Encuéntrese la familia de curvas tales que el radio vector de un punto
cualquiera y la recta tangente a la curva en ese mismo punto se intersectan
según un ángulo que es k veces el ángulo polar.
15. Si dos familias uniparamétricas de curvas son tales que cada miembro de
una de las familias corta a cada uno de los miembros de la otra según el
mismo ángulo, se dice que son dos familias de trayectorias isogonales. Dada
la familia y = ax2 , encuéntrese una familia de trayectorias isogonales tales
que el ángulo de intersección, medido desde las curvas de la familia buscada
hacia las parábolas, es π/4.
228 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

16. Encuéntrense las trayectorias ortogonales de la familia uniparamétrica de


curvas y = kx5 . Hágase lo mismo para x − y = kex , para ex cos y = k y
2
para sen y = kex .
17. Hállense las curvas ortogonales a las familias uniparamétricas r = k sec θ,
rn sen nθ = k (n ∈ N), r = ekθ , rθ = k y r = sen θ + k.
18. Encuéntrese la familia de curvas tales que el área de la región determinada
por un arco de curva y los dos radios vectores de los extremos del arco es
igual, numéricamente, a la mitad de la longitud del citado arco.
19. Un modelo simplista para describir cómo evoluciona una epidemia supone
que la variación con el tiempo del número de personas infectadas es propor-
cional tanto al número de enfermos como al de personas sanas. Obténgase la
ley de variación temporal del número de enfermos para una población de M
individuos suponiendo que en el instante inicial hay N enfermos. ¿Describe
este modelo la evolución de la epidemia de forma realista?
20. Calcúlense las trayectorias ortogonales a las familias de curvas

a) y 2 + 2cx = c2 ; b) r = c(1 + cos θ).

21. Pruébese que las rectas tales que su intersección con los ejes de coordenadas
determinan un segmento de longitud unidad satisfacen

y%
y = xy % ± 6 .
1 + (y % )2

Hállense las soluciones del par de ecuaciones diferenciales y véase que apare-
ce una “astroide” de ecuación x2/3 + y 2/3 = 1.
22. Un paracaidista salta desde un avión que se mueve horizontalmente a una
gran altura. Tras 10 segundos en caı́da libre, abre el paracaı́das. Hállese
su velocidad a los 15 s de haber saltado y la velocidad aproximada que
tendrá al llegar al suelo. Supóngase que el peso del intrépido individuo
junto con el paracaı́das es de 100 kg La fuerza de resistencia del aire se
supone proporcional a la velocidad, siendo el coeficiente 10 kg/s cuando el
paracaı́das está cerrado y 200 kg/s cuando está abierto. Despreciamos el
desplazamiento horizontal.
23. Un objeto esférico proveniente del espacio interestelar se precipita sobre la
tierra desde una altura r0 de su centro. Encuéntrese su velocidad como
función de su distancia r al centro de la tierra. Hállese también la velocidad
con la que llega a la superficie del planeta y la ecuación del movimiento. Por
último, estı́mese el número
√ de humanos supervivientes teniendo en cuenta
que el radio del objeto es 3πR/5, con R el radio de la tierra. Despréciese
la resistencia del aire.
6.4. PROBLEMAS 229

24. En dı́as de fuerte viento, al barón von Richthofen le gustaba volar de modo
tal que la hélice de su avión siempre estuviera dirigida hacia la torre del
campo de aterrizaje. Suponiendo que el movimiento se efectúa en un plano
horizontal, que la velocidad del viento es constante en módulo y sentido, y
que el módulo de la velocidad del avión es también constante, encuéntrese
la trayectoria del barón en una de sus excursiones.

25. Una gota de lluvia cae desde una nube que se encuentra en reposo. Calcúlese
su velocidad en función de la distancia que recorre. Supóngase que está
sujeta a una fuerza de resistencia que es proporcional al cuadrado de la
velocidad.

26. Un pastor y su perro se encuentran en un prado. El pastor se desplaza


con movimiento rectilı́neo y uniforme; el perro corre hacia él con velocidad
constante en módulo. Encuéntrese la trayectoria del perro.

27. Calcúlese la trayectoria de la rueda posterior de una bicicleta si la rueda


delantera describe una recta.

28. Usando coordenadas cartesianas, dedúzcase la ecuación diferencial de todas


las circunferencias en el plano.

29. Resuélvanse las siguientes ecuaciones diferenciales hallando su solución ge-


neral:

a) y % + y = 2 + 2x. b) (y % )2 − xy % + y = 0.

c) y % − 6y = 10 sen 2x. d) xy % = y(1 − x tan x) + x2 cos x.

e) x2 (y % )2 + xyy % − 6y 2 = 0. f ) yy % − xy 2 + x = 0.

g) (x2 − y)dx − xdy = 0. h) (y % )2 − xy % − y = 0.

i) (1 + e2x )dy + 2ye2x dx = 0. j) 2xy % + y + 3x2 y 2 = 0.

k) 3y % cos x + y sen x = 1/y 2 . l) (y % − x)(y % − 2y)(y % − xy) = 0.

m) (2 + y 2 )dx − (xy + 2y + y 3 )dy = 0.

n) (y − y % x + 2y % )(y − yx + 1) = 0.

ñ) (4x3 y 3 + 1/x)dx + (3x4 y 2 − 1/y)dy = 0.

30. Sea u(x, y) un factor integrante de la forma diferencial ω = M dx + N dy, y


sea f (x, y) su función potencial. Pruébese que v(x, y) = u(x, y)φ(f (x, y)) es
un nuevo factor integrante, siendo φ(z) una función arbitraria de la variable
real z.
230 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

31. Sean φ(x), P (x) y Q(x) funciones reales. Resuélvase la ecuación diferencial

dφ(y) %
y + φ(y)P (x) = Q(x).
dy

32. Sea ω = M dx + N dy una forma diferencial no exacta. Pruébese que


My − Nx L
(a) si = φ(x), sólo función de x, entonces exp{ φ(x)dx} es un
N
factor integrante de ω;
M y − Nx L
(b) si = −g(y), sólo función de y, entonces exp{ g(y)dy} es un
M
factor integrante de ω;
(c) si M y N son funciones homogéneas del mismo grado y (xM + yN ) no
se anula idénticamente, entonces (xM + yN )−1 es un factor integrante
de ω;
(d) si M dx + N dy puede ser escrito en la forma

yf (xy)dx + xg(xy)dy = 0,

donde f (xy) != g(xy), entonces (xM − yN )−1 es un factor integrante


de ω.

33. Resuélvanse las siguientes ecuaciones por el método del factor integrante:

a) xdy − ydx = x2 ex dx. b) (1 + y 2 )dx = x(1 + x)dy.

c) (2y − x3 )dx + xdy = 0. d) y 2 dy + ydx − xdy = 0.

e) yex cos xdx − xex cos xdy = 0. f ) y 2 dx + (x2 − xy − y 2 )dy = 0.

g) xdx + ydy = (x2 + y 2 )dx. h) y(x + y)dx − x2 dy = 0.

i) (x4 + y 4 )dx − xy 3 dy = 0 j) (x2 + y 2 )dx + xydy = −xdx.

k) y(x2 y 2 + 2)dx + x(2 − 2x2 y 2 )dy = 0.

34. Resuélvanse las siguientes ecuaciones diferenciales sin recurrir al método del
factor integrante:

a) y(x − 2y)dx = x2 dy.

b)(x2 + y 2 )dx + xydy = 0.

c) dx = (α2 − x2 )1/2 dy.


6.4. PROBLEMAS 231

35. Resuélvanse las siguientes ecuaciones diferenciales:


6
a) 4y = x2 + (y % )2 . b) x 1 + (y % )2 − y % = 0.

c) x = (y % )3 + 1. d) 3xy 2 y % = −(x2 + y 3 ).

e) y % + y = ex y 2 . f ) yy % − xy 2 + x = 0.
6
g) xdy − ydx = x x2 − y 2 dy. h) y % (1 + ey ) = e−x − ey − y.

36. Considérese el siguiente campo de fuerzas bidimensional


$ 2 %

− 3x − y 2 2y
F = , .
x2 x
Encuéntrese el potencial del cual deriva este campo y las lı́neas de fuer-
za. Compruébese que las lı́neas de fuerza son perpendiculares a las curvas
equipotenciales.
37. Pruébese que la existencia de un factor integrante tipo µ(x, y) = eay p(x) en
la ecuación M (x, y) dx + N (x, y) dy = 0 requiere
−aM + Nx − My
= f (x).
N
38. Resuélvanse las siguientes ecuaciones buscando primero una solución par-
ticular sencilla:
a) x2 (y % + y 2 ) = 1 − xy. b) 4x4 y % = 4x3 y − 4x6 y 2 − 15. (6.4.1)

c) y % = (1 − y)(y − 2). d) y % = 1 + y − e2x y 2 . (6.4.2)

39. Transfórmese en una ecuación de variables separable la siguiente:


y % = h(x( y m )y/x.

40. Sea y(x) la función que representa el coste total para producir x unidades
de un determinado producto (se supondrá que esta variable es continua, en
lugar de discreta). Hállese esta función sabiendo que la razón con la que
varı́a la pendiente de la recta tangente en cualquier punto de la curva y(x) es
constante e igual a −2, y que además la curva pasa por los puntos (1, −15)
y (2, 0). Coméntese el resultado obtenido.
41. La tasa con la que cambia el precio de venta y(x) de un producto con
respecto a su demanda x, está dada por la ecuación diferencial
3x2 + 2xy
y% = − .
x2 + 1
Hállese el precio en función de la demanda si cuando la demanda es de dos
unidades el precio es de 100.000 euros. Coméntese el resultado.
232 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

42. Sea x la demanda de un cierto producto e y(x) el precio de venta de cada


unidad. Sabiendo que el ritmo según el cual cambia el precio respecto a la
demanda viene regulado por la ecuación
y 120
y% = +x− ,
x x
hállese el precio en función de la demanda, sabiendo que el precio de venta
es de 0.5 euros cuando la demanda es de 1000 unidades. Coméntese el
resultado.
43. La ecuación básica de la dinámica de poblaciones es la siguiente:
Tasa de crecimiento = Tasa de natalidad − Tasa de mortalidad,
y se expresa matemáticamente del siguiente modo
dx
= xf (x) + c(t, x),
dt
donde x representa el número de individuos que forman la población con-
siderada (que puede estar formada por seres humanos, o bacterias, o peces,
etc.; se toma como variable continua), f (x) es la tasa relativa neta de cre-
cimiento (que vendrá dada por ciertas condiciones del medio ambiente) y
c(t, x) representa un flujo neto de población por unidad de tiempo (vale 0
para poblaciones aisladas).
Las hipótesis para f (x) son diversas:
(a) Modelo malthusiano13 : f (x) = cte, c(t, x) = 0.
(b) Modelo logı́stico14 : f (x) = a − bx, c(t, x) = 0.
(c) Modelo de Smith: f (x) = a(b − x)/(b + vx), v > 0, c(t, x) = 0.
(d) Modelos pesqueros de Schaefer: c(t, x) = −cx y f (x) = a − bx.
Realı́cese un estudio detenido de estos modelos y de las predicciones que de
ellos se deducen.
44. Resuélvase la ecuación logı́stica con coeficientes variables:
dx
= a(t)x − b(t)x2 .
dt
Para la ecuación logı́stica más general
dx
= a(t)eγx + b(t)
dt
compruébese que el cambio y = ekx nos lleva a una ecuación fácil de resolver.
13
Thomas Robert Malthus (1766–1834), economista y demógrafo inglés.
14
Modelo propuesto por el matemático belga Pierre François Verhulst (1804–49).
6.4. PROBLEMAS 233

45. Existe un modelo debido a von Bertalanffy que da una ley para crecimiento
de un pez en la forma
m% = am2/3 − bm,
donde m(t) es la masa de un pez joven y a, b son constantes positivas.
Resuélvase esta ecuación y hállese la solución que verifica m(0) = 0. In-
terprétese el resultado.
46. Un modelo de crecimiento económico predice la llamada ley de Solow para
la productividad p(t) de un operario:

p% (t) = mpa − np,

siendo m, n > 0 y 0 < a < 1. Hállese la solución que verifica p(0) = 0 e


interprétese el resultado.
47. El modelo de Gompertz15 de desarrollo de un tumor viene descrito por la
ecuación $ %
dy c
= ky ln ,
dt y
siendo y(t) el tamaño del tumor y k, c constantes. Hállese la solución que
verifica y(0) = 0 e interprétese el resultado.
48. Encuéntrese la solución general de la ecuación
2 1
y % = x3 + y − y2 .
x x
NOTA: Pueden buscarse soluciones particulares en forma de monomios.
49. Hállense las soluciones de la ecuación
y%
y+ 6 = x y% .
1 + (y % )2

50. Encuéntrese la solución general de la ecuación (x2 y + 2y 3 ) dx + x3 dy = 0.


51. Determı́nense las soluciones de la ecuación diferencial
$
y = x y % + ey ,

y coméntese el resultado.
52. Encuéntrese la solución general de la ecuación

yy %% + (y % )2 − 2yy % = 0 .
15
Benjamin Gompertz (1779–1865), pionero inglés en el desarrollo de técnicas
matemáticas aplicadas a los seguros. Introdujo las curvas que llevan su nombre, del
tipo y = Cabx , para analizar tablas de mortalidad.
234 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

53. Hállese la solución general de


y
y % (t) = + t3 y 2 − t 5 .
t
54. Hállense las soluciones y dibújense algunas curvas solución de las ecuaciones
diferenciales
a) y = xy % + (y % )2 . b) y = −xy % + (y % )2 .
55. Resuélvanse las ecuaciones
a) y = x(y % )2 + (y % )3 .
b) y = x(1 + y % ) + (y % )2 .
c) y = x(y % )2 .
6
d) y = xy % + 1 + (y % )2 .
e) y = xy % − 2 − y % .

56. Determı́nese la solución general de


$
a) x = ey + y % .
b) x = ay % + b(y % )2 .
y 2 + (y % )3
c) x = .
yy %
57. Resuélvanse las siguientes ecuaciones diferenciales:
a) (1/x)dx − (1 + xy 2 )dy = 0.
b) (3xey + 2y)dx + (xey + 1)xdy = 0.
c) (y 2 − 2x2 ey )dx + (2xy ln x − x3 ey )dy = 0.
d) y(ln y − 2x)dx + (x + y)dy = 0.
e) xdy + ydx − 2x2 y 3 dy = 0.
f) (3x/y 2 + 14 + 5x3 y 3 )dx + (14x/y + 5x4 y 2 + 4y/x)dy = 0.
g) y % + tan y = x sec y.
58. Hállese la solución general de
a) y % = 6 + 5y + y 2 .
b) y % = e2x + (1 + 2ex )y + y 2 .
c) x2 y % = x2 y 2 + xy + 1.
4 y
d) y % = − 2 − + y 2 .
x x
e) y % = −2 − y + y 2 .
f ) y % e−x + y 2 − 2yex = 1 − e2x .
6.5. BIBLIOGRAFÍA 235

59. Hállese la solución que cumple la condición indicada:

y % + 8y = δ(x − 1) + δ(x − 2), y(0) = 0.

60. Siendo f (x) una función conocida, calcúlese la solución general de

xy % − 2y = x3 f (x).

6.5 Bibliografı́a
Existe una cantidad ingente de libros que abarcan el contenido de este
capı́tulo. Nos limitaremos aquı́ a una selección de los que consideramos
más interesantes.

1. Ayres, F., Ecuaciones diferenciales, McGraw-Hill, 1969.


2. Boyce, W.E. y DiPrima, R.C., Ecuaciones diferenciales y problemas con
valores en la frontera, Limusa-Wiley, 1967.
3. Bronson, R., Ecuaciones diferenciales modernas, Schaum, McGraw-Hill,
1978.
4. Campbell, S.L. y Haberman, R., Introducción a las ecuaciones diferenciales,
McGraw-Hill, 1996.
5. Edwards, C.H. y Penney, D.E., Ecuaciones diferenciales elementales, Prenti-
ce-Hall Hispanoamericana, 1993.
6. Elsgoltz, L., Ecuaciones diferenciales y cálculo variacional , MIR, 1969.
7. Fernández, C. y Vegas, J.M., Ecuaciones diferenciales II , Ediciones Pirá-
mide, 1996.
8. Forsyth, A.R., A Treatise on Differential Equations, Dover, 1996.
9. Gray, A., Mezzino, M., and Pinsky, M.A., Introduction to Ordinary Differ-
ential Equations with Mathematica, Springer-Verlag, 1997.
10. Ince, E.L., Ordinary Differential Equations, Dover, 1956.
11. Kiseliov, A., Krasnov, M. y Makarenko, G., Problemas de ecuaciones dife-
renciales ordinarias, Ediciones Quinto Sol, 1994.
12. Kline, M., Mathematical Thought from Ancient to Modern Times, Oxford
University Press, 1972.
13. Kreiszig, E., Advanced Engineering Mathematics, John Wiley & Sons Inc.,
1993.
236 CAPÍTULO 6. MÉTODOS ELEMENTALES DE INTEGRACIÓN

14. Marsden, J.E. and Hoffmann, M.J., Basic Complex Analysis, Freeman,
1987.
15. Morga, S., Matemáticas aplicadas a la Economı́a, Editorial AC, 1997.
16. Mielnik, B., J. Math. Phys. 25, 3387 (1984).
17. Minorsky, V.P., Problems in Higher Mathematics, Mir, 1981.
18. Nagle, R.K. y Saff, E.B., Fundamentos de ecuaciones diferenciales, Addison-
Wesley, 1992.
19. Novo, S., Obaya, R. y Rojo, J., Ecuaciones y sistemas diferenciales, Edito-
rial AC, 1992.
20. Pérez, A., Apuntes de Ecuaciones diferenciales, Valladolid 1968 (no publi-
cados).
21. Ross, S.L., Ecuaciones diferenciales, Reverté, 1981.
22. Simmons, F., Ecuaciones diferenciales con aplicaciones y notas históricas,
Editorial McGraw-Hill, 1977.
23. Spiegel, M.R., Transformadas de Laplace, McGraw-Hill, 1970.
24. Spiegel, M.R., Matemáticas superiores para ingenieros y cientı́ficos, Mc-
Graw-Hill, 1971.
25. Zwillinger, D., Handbook of Differential Equations, Academic Press, 1992.
Capı́tulo 7

TEOREMAS DE
EXISTENCIA Y
DEPENDENCIA

7.1 Introducción

A pesar de los casos tan variados de ecuaciones diferenciales que hemos


analizado en el capı́tulo precedente, en muchas ocasiones no es posible
hallar la solución explı́cita de una ecuación diferencial ordinaria. A veces
se procederá a resolver el problema usando técnicas de análisis numérico
(que no vamos a considerar aquı́) y recurriendo a la ayuda de un ordenador.
En todo caso, en determinadas situaciones puede resultar muy útil saber
al menos si un determinado problema está bien planteado, lo que viene a
significar que la ecuación diferencial que estemos considerando tenga una
única solución.
Este va a ser uno de los objetivos del presente capı́tulo, al mismo tiempo
que vamos a plantear otras cuestiones de interés dentro del marco de la
teorı́a de ecuaciones diferenciales. Hemos de advertir al lector que este
es un capı́tulo de matemática dura. Quiere decir esto que a lo largo del
mismo nos dedicaremos, esencialmente, a demostrar por métodos rigurosos
una serie de teoremas relativos a la existencia y unicidad de soluciones de
ecuaciones diferenciales del tipo y ! = f (x, y) con unas condiciones iniciales
fijadas. Veremos también cuando estas soluciones pueden prolongarse más

237
238 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

allá del intervalo determinado por los teoremas de existencia. Asimismo,


discutiremos la variación que sufren estas soluciones al modificar las condi-
ciones iniciales y también cuando cambiamos ligeramente la función f (x, y)
en términos de un parámetro1 .
Este capı́tulo está estructurado de la siguiente manera: en la sección 7.2
probaremos el resultado clásico demostrado primero por Liouville2 (1838) y
retocado después con las contribuciones de Cauchy y Peano3 , siendo Picard4
quien le dio su forma final, sobre la existencia de soluciones de la ecuación
diferencial y ! = f (x, y), siempre y cuando la función f (x, y) sea continua en
un dominio (conjunto abierto y conexo) y satisfaga una propiedad adicional,
llamada condición de Lipschitz5 , que definiremos. Además la solución que
pasa por todo punto (x0 , y0 ) del dominio en el que se cumplen las condi-
ciones exigidas para f (x, y) es única. Esto equivale a decir que la solución de
la ecuación y ! = f (x, y) con la condición inicial y(x0 ) = y0 existe y es única
a condición que f (x, y) satisfaga ciertas condiciones en un dominio del plano
R2 . Esta solución está definida en un cierto entorno V ≡ (x0 − α, x0 + α) de
x0 . Ahora bien, surge la pregunta de si esta solución puede extenderse más
allá del intervalo V . La respuesta es en general positiva y en la sección 7.3
se describe el proceso mediante el cual se prolongan las soluciones.
Una de las cuestiones más interesantes en la teorı́a de ecuaciones dife-
renciales es el de la estabilidad de las soluciones. Este problema tiene una
doble vertiente. Por un lado está el de la estabilidad o inestabilidad con
respecto a los valores iniciales, que puede plantearse de la siguiente forma:
si en lugar de analizar únicamente la solución que pasa por (x0 , y0 ) con-
sideramos también la que pasa por un punto muy próximo (x1 , y1 ), ¿serán
estas soluciones bastante parecidas o por el contrario muy diferentes? En
el primer caso habları́amos de estabilidad y en el segundo de inestabilidad
con respecto a los valores iniciales. Este asunto se plantea en la sección 7.4.
Resulta también importante averiguar si pequeños cambios en la función
f (x, y) conducen a cambios pequeños en la solución. Para estudiar este

1
El material de este capı́tulo ha sido tomado esencialmente de dos fuentes: el libro de
Coddington & Levinson, y los apuntes del Profesor A. Pérez-Gómez, ambos citados en
la bibliografı́a.
2
Joseph Liouville (1809–82), matemático francés.
3
Giuseppe Peano (1858–1932), matemático italiano, bien conocido por dar un ejemplo
de curva que llena completamente una parte del pano R 2 .
4
Charles Emile Picard (1856–1941), matemático francés.
5
Rudolph Lipschitz (1831-1904), matemático alemán.
7.2. ALGUNOS RESULTADOS CLÁSICOS 239

problema tomamos familias de funciones fµ (x, y) dependientes de un pará-


metro µ, que puede suponerse continuo de manera que podemos considerar
a la familia fµ (x, y) como una única función f (x, y, µ) dependiente de tres
variables. Estonces analizamos las condiciones bajo las cuales pequeños
cambios en el parámetro µ originan pequeños cambios en la solución.
Finalmente ofrecemos, sin demostración, un resultado de existencia y
unicidad de soluciones para ecuaciones implı́citas del tipo F (x, y, y ! ) = 0
y damos otro resultado que corresponde a una visión más moderna del
problema de existencia y unicidad, que hace uso del concepto de aplicación
contractiva y del teorema del punto fijo. Tanto éste como el resultado de
Picard son teoremas de suficiencia, de modo que aún cuando alguna de las
hipótesis no se verifique, podrı́a seguir existiendo una única solución, en
algunos casos.
El estudio detallado de este capı́tulo no es estrictamente necesario para
comprender los siguientes, de manera que puede omitirse en una primera
lectura. En realidad los contenidos que aquı́ se incluyen forman parte
del material complementario del libro, de un nivel mayor de complicación
técnica, al igual que los incluidos en los capı́tulos 12 y 13. En cualquier caso,
sı́ se recomienda al menos una lectura de los enunciados de los teoremas
que se presentan a continuación.

7.2 Algunos resultados clásicos sobre existencia y


unicidad de soluciones

Antes de abordar la versión clásica del teorema de existencia y unicidad,


necesitamos introducir una definición:
Definición 1: sea I un intervalo de la recta real y sea f : I → R una
aplicación. Diremos que la función f verifica la condición de Lipschitz, o
bien que es una función lipschitziana, en I si

|f (x) − f (y)| ≤ k |x − y|, ∀x, y ∈ I, (7.2.1)

siendo k una constante que depende del intervalo.


Ejemplo 1: la función f (x) = x2 es lipschitziana en cualquier intervalo
acotado de R (pero no en todo R). En efecto, sea este intervalo [a, b],
con a y b finitos. Entonces |x2 − y 2 | = |x + y||x − y| ≤ M |x − y|.. Si
240 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

a y b son positivos M = 2b; si alguno de los dos números es negativo,


M = 2 máx(|a|, |b|).
Ejemplo 2: otra función lipschitziana es f (x) = sen x en R. Obsérvese
que el teorema del valor medio nos dice que

sen x − sen y = (cos ξ)(x − y), ξ ∈ (x, y).

Entonces |sen x − sen y| ≤| x − y|. Esta desigualdad es cierta para todo


valor real de x e y. Este último ejemplo nos sirve para motivar el siguiente
resultado, que es bastante interesante:

Proposición 1: sea f : I → R una aplicación derivable y con derivada


acotada en I, entonces f es lipschitziana en I.

Demostración: teniendo en cuenta el teorema del valor medio, dados


x < y ∈ I, ∃ ξ ∈ (x, y) tal que

|f (x) − f (y)| = |f ! (ξ)| |x − y|. (7.2.2)

Como por hipótesis |f ! (ξ)| está acotada en I, existe una constante K > 0
tal que |f ! (x)| < K. Como ξ ∈ I, entonces

|f (x) − f (y)| ≤ K |x − y|.

Ejemplo 3: hay funciones que no son derivables pero que, sin embargo,
son lipschitzianas, por ejemplo f (x) = |x| en un entorno al origen, pues
||x| −| y|| ≤ |x − y|. En virtud del resultado anterior, las funciones no
lipschitzianas no serán derivables en algún punto del intervalo considerado
(hablamos aquı́ de derivada como función, no como distribución); un ejem-

plo es f (x) = x, que no es derivable en 0 y no es lipschitziana en [0, ∞).

Definición 2: consideremos ahora una función de dos variables reales,


f (x, y), definida en un dominio D del plano real. Diremos que es lips-
chitziana en la segunda variable si existe una constante positiva k (que no
puede depender de x) tal que para cualesquiera x, y1 , y2 , tales que (x, y1 ) y
(x, y2 ) están en D, se verifica que

|f (x, y1 ) − f (x, y2 )| ≤ k |y1 − y2 |, (7.2.3)


7.2. ALGUNOS RESULTADOS CLÁSICOS 241

Proposición 2: sea D un dominio convexo6 del plano real y f (x, y) una


función de clase7 C 1 (D) tal que ∂f /∂y esté acotada en D. Entonces, f (x, y)
satisface una condición de Lipschitz con respecto a y en D.

Demostración: tomemos dos puntos en D, (x, y1 ) y (x, y2 ). Aplicando el


teorema del valor medio, obtenemos
2 2
2 ∂f (x, ξ) 2
2
|f (x, y1 ) − f (x, y2 )| = 2 2 |y1 − y2 |, (7.2.4)
∂y 2

siendo y1 ≤ ξ ≤ y2 . Como la derivada parcial ∂f /∂y está acotada en D,


existirá una constante K > 0 tal que |∂f (x, y)/∂y| ≤ K, ∀ (x, y) ∈ D. Por
consiguiente:
|f (x, y1 ) − f (x, y2 )| ≤ K |y1 − y2 |, (7.2.5)

que es lo que se pretendı́a demostrar.

Definición 3: si tenemos una función f : I × D → Rn , con D ⊂ Rn ,


diremos que es lipschitziana respecto de "y ∈ D si

||f (x, "y1 ) − f (x, "y2 )|| ≤ k ||"y1 − "y2 ||, (7.2.6)

siendo || · · · || la norma en Rn , es decir, si "y = (y1 , . . . , yn ) ∈ Rn , entonces


7
||"y || = y12 + · · · + yn2 .

Tras estos prolegómenos, estamos en condiciones de enunciar el siguiente


resultado, que es el fundamental de este tema.

Teorema 1 (de existencia y unicidad de soluciones): si f (x, y) es


continua y satisface una condición de Lipschitz con respecto de y en un do-
minio D del plano real, entonces para todo punto (x0 , y0 ) de dicho dominio
existe una única solución, y = y(x), de la ecuación diferencial y ! = f (x, y)
tal que y0 = y(x0 ). Esta solución8 está definida en un cierto entorno del
punto x0 .
6
Un dominio D ⊂ R es convexo si dados dos puntos cualesquiera de D, el segmento
de recta que les une está totalmente contenido en D.
7
Diremos que una función es de clase C n (D) si admite derivadas parciales continuas
hasta orden n en D.
8
La solución es una curva en R 2 pasando por el punto (x0 , y0 ).
242 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

La existencia se demuestra usando la continuidad de f (x, y); la condición


de Lipschitz asegura la unicidad, y puede ser substituida por la condición
de existencia de la derivada parcial ∂f /∂y en D.
Demostración: la prueba de este resultado es una labor bastante prolija,
de manera que vamos a realizarla en diversas etapas9 . En primer lugar de-
mostraremos la existencia (para lo cual hemos de introducir algunas nuevas
definiciones y demostrar además algún lema auxiliar) y después la unicidad.

A.– Demostración de la existencia.


Es la parte más ardua, de manera que la desglosaremos en varios pasos.

• PASO 1.
Definición 4: sea I un cierto intervalo real. Diremos que una función
ϕ(t) definida en I es una solución 0-aproximada de y ! = f (x, y) si:
a) (t, ϕ(t)) ∈ D, ∀ t ∈ I.
b) ϕ ∈ C 1 (I), aunque se puede admitir que exista en I un con-
junto finito de puntos para los cuales ϕ! (t) tenga discontinuidades
de primera especie10 . Llamaremos S a dicho conjunto.
c) |ϕ! (t) − f (t, ϕ(t))| ≤ 0, ∀ t ∈ I − S.
Consideremos ahora un punto (x0 , y0 ) ∈ D. Debido a que D es
abierto, existe un rectángulo cerrado R centrado en (x0 , y0 ) y total-
mente contenido en D. Este rectángulo está formado por el siguiente
conjunto de puntos:

R := {|x − x0 | ≤ a; |y − y0 | ≤ b}, (7.2.7)

donde hemos escogido a y b de tal manera que el rectángulo esté en


D.
Como f (x, y) es continua en D, lo es en R, y por ser R compacto,
está acotada en R. Sean
$ %
b
M := max |f (x, y)| y α = mı́n a, . (7.2.8)
(x,y)∈R M
9
Para probar este resultado vamos a seguir las lı́neas maestras del libro de Coddington
and Levinson.
10
Son aquellas para las cuales ϕ$ (t) tiene un salto finito.
7.2. ALGUNOS RESULTADOS CLÁSICOS 243

Para continuar, necesitamos demostrar ahora el siguiente resultado:


Lema 1: para cada 0 > 0 existe una solución 0-aproximada, ϕ(x),
de la ecuación diferencial, definida en I = (x0 − α, x0 + α), tal que
ϕ(x0 ) = y0 .
Demostración: vamos a construir una solución 0-aproximada en el
intervalo [x0 , x0 + α]. Una construcción similar puede hacerse para
[x0 − α, x0 ]. Esta solución aproximada va a ser una lı́nea poligonal.
Como f (x, y) es continua en R y R es compacto, entonces f (x, y) es
uniformemente continua en R. Esto significa que, fijado 0 > 0, existe
δ > 0 tal que si (x, y), (x! , y ! ) ∈ R con |x − x! | ≤ δ; |y − y ! | ≤ δ,
entonces
|f (x, y) − f (x! , y ! )| ≤ 0. (7.2.9)
Dividamos ahora el intervalo [x0 , x0 + α] en n trozos

x0 < x1 < x2 < . . . < xn = x0 + α, (7.2.10)

de tal manera que


$ %
δ
máx |xk+1 − xk | ≤ mı́n δ, , (7.2.11)
M
para todo k = 0, 1, . . . , n − 1. A continuación, partiendo de (x0 , y0 ),
trazamos un segmento de recta que tenga como pendiente f (x0 , y0 ).
Este segmento va del punto (x0 , y0 ) al punto (x1 , y1 ) en donde se corta
la recta y = f (x0 , y0 )x + b0 (siendo b0 = y0 − f (x0 , y0 )x0 ) con la recta
x = x1 . Partiendo de (x1 , y1 ) y con pendiente f (x1 , y1 ), construimos
el segmento de recta que va desde el punto (x1 , y1 ) al punto (x2 , y2 ),
intersección de la recta y = f (x1 , y1 )x + b1 , (b1 = y1 − f (x1 , y1 )x1 )
con la recta x = x2 . Procedemos de esta manera, hasta llegar a la
recta x = x0 + α. Hemos construido una lı́nea poligonal encerrada
en la banda limitada por las rectas y = M x + C+ e y = −M x + C− ,
donde C± = y0 ∓ M x0 (véase la Figura 7.1). Esto es debido a que las
pendientes de los segmentos son, en módulo, menores que M . Vamos
a llamar ϕ(x) a esta linea poligonal y vamos a ver que es una solución
0-aproximada. La expresión analı́tica de ϕ(x) es

ϕ(x0 ) = y0 , ϕ(x) = ϕ(xk ) + f (xk , ϕ(xk )) (x − xk ), (7.2.12)


k = 0, 1, . . . , n − 1; xk < x ≤ xk+1
244 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

(x 0 ,y 0 )

x1 x2 x3 x 0+a

Figura 7.1: Esquema de la demostración del


lema 1.

Por construcción, las condiciones a) y b) de la definición de solución


0-aproximada se cumplen. Veamos que verifica la restante. En efecto,
la pendiente de ϕ(x) es siempre, en módulo, menor que M . Por este
motivo

|ϕ(x) − ϕ(x! )| ≤ M |x − x! |, ∀ x, x! ∈ [x0 , x0 + α]. (7.2.13)

Pero si x está en el intervalo (xk , xk+1 ], de (7.2.12) se tiene que


δ
|ϕ(x) − ϕ(xk )| ≤ M |x − xk | ≤ M = δ.
M
Derivando (7.2.12) y calculando el valor de la derivada en el punto x,
se obtiene
ϕ! (x) = f (xk , ϕ(xk )), x ∈ (xk , xk+1 ].
Si ahora tomamos x ∈ (xk , xk+1 ], por (7.2.11) |x − xk | ≤ δ. Entonces,
podemos aplicar la continuidad uniforme de f (x, y) en R para concluir
que

|ϕ! (x) − f (x, ϕ(x))| = |f (xk , ϕ(xk )) − f (x, ϕ(x))| ≤ 0.

• PASO 2.
Definición 5: sea F = {fj }j∈J una familia de funciones definidas
en un intervalo I ⊂ R, siendo R, la recta real. Diremos que F es
equicontinua en I, si para cada 0 > 0, existe δ > 0, que es indepen-
diente de j ∈ J, tal que si |t − t! | < δ, entonces |fj (t) − fj (t! )| < 0,
∀ j ∈ J, ∀ t, t! ∈ I.
7.2. ALGUNOS RESULTADOS CLÁSICOS 245

Lema 2 (de Ascoli11 ): si F es una familia infinita de funciones


definidas en un cierto intervalo acotado I ⊂ R, uniformemente aco-
tada12 y equicontinua, entonces contiene una sucesión {fn }n∈N de
funciones que es uniformemente convergente en I.
Demostración: puesto que el conjunto de los números racionales
contenidos en I es numerable, los podemos escribir como una sucesión:
α1 , α2 , . . . , αn , . . . Consideremos ahora fj (α1 ) con j ∈ J. Este con-
junto de números está acotado por la hipótesis de acotación uniforme
en el lema 2. Luego existe una sucesión {fn1 } de funciones de F para
las cuales la sucesión de números {fn1 (α1 )} es convergente. Como la
sucesión {fn1 (α2 )} está acotada, existe una subsucesión de {fn1 }, a
la que llamaremos {fn2 }, para la cual {fn2 (α2 )} es convergente. Con-
tinuando con el proceso, vamos encontrando sucesiones de funciones
{fn1 }, {fn2 }, . . . , {fn" } tales que {fn" (αi )} converge siempre y cuando
i ≤ '.
Tomemos ahora un racional cualquiera, αk ∈ I, y sea n ≥ k. Defina-
mos la sucesión {fn } de funciones en I de la siguiente manera: ∀x ∈ I,
fn (x) := fnn (x), donde fn" son funciones en la familia F definidas en
el párrafo anterior. Entonces fn (αk ) = fnn (αk ), ∀ α1 , α2 , . . . , αk , . . .
Por construcción las sucesiones numéricas {fmn (αk )}m∈N con k ≤ n
convergen13 todas ellas a un cierto ak . Ası́ pues, fn (αk ) → ak cuando
n → ∞ y la sucesión de funciones {fn } converge, cuando n → ∞, en
los racionales contenidos en I.
De esta manera, dado 0 > 0 y un racional αk ∈ I, existe un entero
N (αk ), que depende de 0 y de αk tal que si n, m > N (αk ), se tiene
que
|fn (αk ) − fm (αk )| < 0.
Para este 0, existe un δ tal que si t, t! ∈ I con |t − t! | < δ y fj ∈ F , se
verifica que |fj (t) − fj (t! )| < 0. Este δ es independiente de t, t! y de
j ∈ J.
Dividamos ahora el intervalo I en p subintervalos de longitud menor
que δ, lo cual se puede hacer porque I está acotado por hipótesis. Sean
11
Giulio Ascoli (1843–96), matemático italiano.
12
Esto significa que si F = {fj }j∈J , existe una constante K > 0 tal que |fj (t)| ≤ K,
para todos j ∈ J y t ∈ I.
13
El ı́ndice n denota una sucesión y el ı́ndice m un elemento de la sucesión. El número
αk es fijo.
246 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

estos subintervalos I1 , I2 , . . . , Ip con ∪pj=1 Ij = I. Para cada subinter-


valo Ij , escojamos un racional βj ∈ Ij . Si t ∈ I, entonces existe un
cierto subintervalo Ii para el cual t ∈ Ii . Tomemos ahora n, m >
N := máx{N (β1 ), N (β2 ), . . . , N (βp )}, con βj ∈ Ij , j = 1, 2, . . . , p.
Sumando y restando a fn (t) − fm (t), primero fn (βi ), luego fm (βi ),
tomando módulos y haciendo uso de la desigualdad triangular, tene-
mos:

|fn (t) − fm (t)| ≤| fn (t) − fn (βi )| + |fn (βi ) − fm (βi )|


+|fm (βi ) − fm (t)| < 30. (7.2.14)

Teniendo en cuenta que N no depende de t, la desigualdad (7.2.14) de-


muestra la convergencia uniforme de la sucesión de funciones {fn (t)}
en I.

• PASO 3.
Proposición 3: si f (x, y) ∈ C 0 (R), es decir, la función es continua
en nuestro rectángulo original R, existe una solución, y = ϕ(x), de
la ecuación diferencial y ! = f (x, y) con ϕ ∈ C 1 ([x0 − α, x0 + α]) e
y0 = ϕ(x0 ).
Demostración: tomemos la sucesión 0n = 1/2n . Según lo que hemos
visto anteriormente, para cada n existe una solución 0n -aproximada,
ϕn (x), de la ecuación diferencial. Esta solución 0n -aproximada está
definida en el intervalo [x0 − α, x0 + α] y verifica ϕn (x0 ) = y0 . Ten-
gamos ahora en cuenta que la ecuación (7.2.13) también es válida si
x, x! ∈ [x0 − α, x0 ]. De aquı́, que para cualquier x ∈ [x0 − α, x0 ], se
cumpla:

b
|ϕn (x) − ϕn (x0 )| ≤ M |x − x0 | ≤ M α ≤ M = b.
M
La última desigualdad proviene de (7.2.8). Por otro lado, sabemos
que:

| |ϕn (x)| −| ϕn (x0 )| | ≤ |ϕn (x) − ϕn (x0 )| ≤ b. (7.2.15)

Independientemente del signo de |ϕn (x)| −| ϕn (x0 )|, (7.2.15) implica


que:
|ϕn (x)| ≤| ϕn (x0 )| + b = |y0 | + b. (7.2.16)
7.2. ALGUNOS RESULTADOS CLÁSICOS 247

Como el x que aparece en (7.2.16) representa un número real arbi-


trario en el intervalo [x0 − α, x0 ], deducimos que la sucesión {ϕn (x)}
está uniformemente acotada por la constante positiva |y0 | + b. Lo
mismo sucede para todo x en el intervalo [x0 , x0 + α].
Probemos ahora que

x, x! ∈ [x0 − α, x0 + α] ⇒ |ϕn (x) − ϕn (x! )| ≤ M |x − x! |.

En efecto, esto es cierto si x y x! son ambos bien mayores o bien


menores que x0 (véase (7.2.13)). Si x < x0 < x! tenemos que

|ϕn (x) − ϕn (x! )| ≤| ϕn (x) − ϕn (x0 )| + |ϕn (x0 ) − ϕn (x! )|


≤ M (|x − x0 | + |x0 − x! |) = M |x − x! |. (7.2.17)

Con esta idea tan simple podemos demostrar la equicontinuidad de


la familia F := {ϕn (x)}. En efecto, sea 0 > 0. Para este 0 fijemos
δ = 0/M . Entonces, si |x − x! | < δ, se tiene que

|ϕn (x) − ϕn (x! )| ≤ M |x − x! | < M δ = M 0/M = 0,

independientemente de n, lo que demuestra la equicontinuidad de la


familia {ϕn (x)}.
Pero {ϕn (x)} es una familia infinita, uniformemente acotada y equi-
continua. Estamos en condiciones de poder aplicar el lema de Ascoli
y concluir que debe de existir una subsucesión, {ϕnj (x) = ϕj (x)}, de
{ϕn (x)} tal que sea uniformemente convergente en I = [x0 −α, x0 +α]
hacia una función ϕ(x), la cual, por ser lı́mite uniforme de funciones
continuas, es una función continua.

• PASO 4.
Sea ahora g(x) una solución 0-aproximada cualquiera de nuestra ecua-
ción diferencial. Para x > x0 , podemos escribir
1 x
g(x) = y0 + (f (t, g(t)) + ∆(t)) dt, (7.2.18)
x0

donde ∆(t) := g ! (t) − f (t, g(t)). La integral en (7.2.18) existe porque


g(t) y f (t, g(t)) son continuas y g ! (t) es continua a trozos. Para los
puntos x < x0 podemos escribir una ecuación similar, donde los
248 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

lı́mites de integración variarán entre x y x0 . La comprobación de


la ecuación (7.2.18) es inmediata.
Ahora bien f (x, y) es uniformemente continua en el compacto R y en
el intervalo [x0 −α, x0 +α], la sucesión de funciones {ϕnj (x)} converge
uniformemente a la función ϕ(x). De aquı́ que la sucesión de funciones
f (x, ϕnj (x)) converja uniformemente a la función f (x, ϕ(x)).
Cuando la convergencia es uniforme, los sı́mbolos lı́mite e integral
pueden intercambiarse. De esta forma si ∆nj (t) = ϕ!nj (t)−f (t, ϕnj (t))
1 x
ϕ(x) = lim ϕnj (x) = y0 + lim (f (t, ϕnj (x)) + ∆nj (t)) dt
nj →∞ nj →∞ x
0
1 x 1 x
= y0 + lim {f (t, ϕnj (x))+∆nj (t)} dt = f (t, ϕ(t)) dt. (7.2.19)
x0 nj →∞ x0

De esta manera vemos que ϕ(x) es derivable, pues puede ponerse


como una integral entre x0 y x. Derivando en (7.2.19), obtenemos

ϕ! (x) = f (x, ϕ(x)), (7.2.20)

lo que demuestra que ϕ(x) es una solución de la ecuación para x ≥ x0 .


De una manera análoga demostramos (7.2.20) para x ≤ x0 . Resu-
miendo, la función ϕ(x)
(i) está definida en el intervalo [x0 − α, x0 + α],
(ii) es solución de la ecuación diferencial,
(iii) pertenece a la clase C 1 ([x0 − α, x0 + α]).

Hemos probado, pues, la existencia de soluciones.

B.– Demostración de la unicidad.


Para demostrar esta parte razonaremos por reducción al absurdo suponiendo
que existen dos soluciones y1 (x) e y2 (x) pasando por (x0 , y0 ). Por ser ambas
soluciones de la ecuación diferencial, han de satisfacer la misma

y1! (x) = f (x, y1 (x)), y2! (x) = f (x, y2 (x)).

Restando estas dos expresiones, obtenemos

y1! (x) − y2! (x) − f (x, y1 (x)) + f (x, y2 (x)) = 0.


7.2. ALGUNOS RESULTADOS CLÁSICOS 249

Integrando ahora entre x0 y t (con t > x0 ), llegamos a


1 t
y1 (t) − y2 (t) − y1 (x0 ) + y2 (x0 ) − {f (x, y1 (x)) − f (x, y2 (x))} dx = 0.
x0

Como las gráficas de las funciones yi (x), i = 1, 2, pasan por el punto (x0 , y0 ),
entonces −y1 (x0 ) + y2 (x0 ) = 0. Tomando módulos y usando la condición
de Lipschitz con respecto a y (que se verifica por la hipótesis del teorema)
se obtiene que
1 t
|y1 (t) − y2 (t)| ≤ K |y1 (x) − y2 (x)| dx. (7.2.21)
x0
1 t
Llamando p(t) = y1 (t) − y2 (t) y R(t) = |p(x)| dx, por (7.2.21) tenemos
x0

|p(t)| = R! (t) ≤ KR(t),

de donde
R! (t) − KR(t) ≤ 0, t ∈ (x0 , b),
siendo b es un cierto número real mayor que x0 . Multipliquemos ahora
esta última expresión por e−Kt e integremos entre x0 y x, (x ∈ (x0 , b)).
Obtenemos lo siguiente
1 x 2x
−Kt !
2
−Kt 2
0 ≥ e {R (t) − KR(t)} dt = R(t) e 2
x0 x0

= R(x) e−Kx − R(x0 ) e−Kx0 ⇒ R(x) ≤ R(x0 ) eK(x−x0 ) . (7.2.22)

Ahora bien, por su propia definición, R(x) ≥ 0. Asimismo, R(x0 ) = 0, lo


que implica por (7.2.22) que R(x) = 0, x ∈ (x0 , b) ⇒ |p(x)| = 0 para casi
todo x. Como p(x) es una función continua, esto implica que p(x) = 0, ∀ x ∈
(x0 , b), lo cual implica que, en este intervalo, y1 (x) = y2 (x). Un argumento
similar prueba esta igualdad para un intervalo de la forma (a, x0 ). En x0 la
igualdad se verifica por hipótesis. Por lo tanto, y1 (x) = y2 (x), ∀ x ∈ (a, b).

Teorema 2 (de Picard): sea f (x, y) una función de clase C 1 (D), siendo
D un dominio del plano real. Entonces, dado (x0 , y0 ) ∈ D, existe una única
solución y = y(x) de la ecuación diferencial y ! = f (x, y), tal que y0 = y(x0 ).
Esta solución está definida en un cierto entorno de x0 .
250 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Demostración: como D es un abierto, existe un disco cerrado V centrado


en (x0 , y0 ) y totalmente contenido en D. La función ∂f /∂y está acotada en
V , ya que es continua allı́, y por lo tanto también ha de estar acotada en el
interior V de V . Además V es convexo, por ser un disco. Estamos pues en
condiciones de aplicar el teorema anterior y concluir que existe una única
solución de y ! = f (x, y) cuyo grafo14 está contenido en V .
Nota. Diremos que una función es localmente lipschitziana en D si para
todo punto (x0 , y0 ) ∈ D, existe un entorno del mismo en el cual dicha
función es lipschitziana. Si f (x, y) ∈ C 1 (D), es obviamente localmente
lipschitziana en D con respecto a ambas variables.
Corolario: si la función f (x, y) ∈ C 1 (D), la solución general de la ecuación
y ! = f (x, y) depende sólo de una constante arbitraria.
Demostración: supongamos que la solución general dependiera de n cons-
tantes arbitrarias C1 , C2 , . . . , Cn , entonces habrı́a de escribirse en la forma
y = y(x, C1 , C2 , . . . , Cn ). Tomemos la solución particular que pase por el
punto (x0 , y0 ). Ésta ha de cumplir la condición y0 = y(x0 , C1 , C2 , . . . , Cn ).
Si queremos que esta ecuación algebraica determine las constantes Ci , el
número de éstas no podrá ser mayor que uno. Ası́, y = y(x, C) es la solución
general de y ! = f (x, y).

7.3 Teoremas de prolongación de soluciones

A lo largo de esta sección vamos a suponer que se verifican las condiciones


del teorema anterior. De esta manera, para cada punto (x0 , y0 ) ∈ D, existe
una única solución y(x) de la ecuación diferencial y ! = f (x, y) pasando por
dicho punto. Esta solución está definida en un cierto intervalo de la forma
[x0 − α, x0 + α].
La unicidad significa que si existe otra solución, g(x), pasando por el
mismo punto, ésta ha de coincidir con y(x) en el intervalo [x0 − α, x0 + α].
Pero pudiera suceder que g(x) estuviera definido en un conjunto mayor que
[x0 − α, x0 + α]. En ese caso g(x) serı́a una prolongación de y(x).
Sea P ≡ {yj (x)}j∈J el conjunto de todas las prolongaciones de y(x)
14
Recordemos que el grafo de una función de la forma y = f (x) es el conjunto de
puntos del plano de la forma (x, f (x)). El grafo coincide con lo que solemos llamar la
“gráfica” de la función.
7.3. TEOREMAS DE PROLONGACIÓN DE SOLUCIONES 251

donde J es un cierto conjunto de ı́ndices. Cada función, yi de P está


definida sobre un cierto intervalo Ii ⊂ R. Diremos que dadas yj , yi ∈ P,
yi prolonga a yj si Ij ⊂ Ii y además yj (x) = yi (x), ∀ x ∈ Ij . Escribiremos
entonces yj ≺ yi .
Debemos de notar que las prolongaciones de y(x) son soluciones de la
ecuación y ! = f (x, y). Para ellas se aplica el teorema de unicidad, lo que
significa que yj ≺ yi ⇒ yi (x) = yj (x), ∀ x ∈ Ij .
La relación ≺ es una relación de orden en P. Consideremos ahora un
subconjunto H de funciones en P verificando la siguiente propiedad: para
todo par de funciones f y g en H, o bien f ≺ g o bien g ≺ f . Esto quiere
decir que H está totalmente ordenado, en el sentido que dos elementos
cualesquiera de H están conectados mediante la relación de orden. Sea
ahora I := ∪Ij la unión de todos los intervalos de definición de las funciones
en H. En I definimos una función, ϕ(x), de la siguiente manera: si x ∈ I
⇒ ∃ i ∈ J tal que x ∈ Ii y entonces:

ϕ(x) := yi (x).

Esta función está bien definida, como puede demostrarse fácilmente usando
la unicidad de las soluciones en cada uno de los Ii . Es además una solución
de la ecuación diferencial pasando por el punto (x0 , y0 ) que verifica la si-
guiente propiedad: yi (x) ≺ ϕ(x), ∀ yi ∈ P. La función ϕ(x) es un extremo
superior15 de H, según la relación de orden ≺ de P.

Definición 6: sea P un conjunto ordenado, con una relación de orden ≺.


Diremos que H ⊂ P es una cadena en P si H es un subconjunto totalmente
ordenado de P.

Vemos que toda cadena de P admite un extremo superior. Por el axioma


de Zorn16 , debe de existir un maximal de P, es decir una función F (x)
solución de la ecuación y ! = f (x, y) pasando por el punto (x0 , y0 ) y tal
que prolongue a cualquier otra solución de y ! = f (x, y) que pase por dicho
punto.
15
La función ϕ(x) es extremo superior de H si yi ≺ ϕ, ∀ yi ∈ H.
16
Max Zorn (1906), matemático alemán. El lema de Zorn es un axioma de la teorı́a de
conjuntos que puede enunciarse ası́: sea A un conjunto ordenado (esto quiere decir que
en él se ha definido una relación de orden). Se llama cadena en A a todo subconjunto de
A totalmente ordenado. Pues bien, si toda cadena admite un extremo superior, entonces
existe un maximal, es decir un cierto b ∈ A tal que ∀a ∈ A, b > a.
252 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Nuestro objetivo es buscar un procedimiento que nos permita encontrar


esta solución F (x), la cual no pueda ya prolongarse. Vamos a conseguirlo
a través de una serie de etapas que desarrollaremos a continuación, pero
antes necesitaremos una serie de lemas preliminares.
Lema 3: sea y(x) una función continua sobre un intervalo cerrado [a, b], tal
que sea derivable en su interior (a, b). Si la derivada y ! (x) tiende hacia un
lı́mite A cuando x → a, entonces y(x), admite en el punto a, una derivada a
la derecha igual a A. Análogamente, si la derivada y ! (x) tiende a un lı́mite
B cuando x → b, la función y ! (x) admite, en el punto b, una derivada a la
izquierda igual a B.
Demostración: supongamos que y ! (x) → A si x → a. Entonces, fijado
0 > 0, existe δ > 0 tal que si 0 < x − a < δ, entonces |y ! (x) − A| < 0.
Aplicando la fórmula de los incrementos finitos (teorema del valor medio)
a la función y(x), obtenemos

y(x) − y(a) = y ! (ξ) (x − a) ⇒ |y(x) − y(a) − A(x − a)| = |(y ! (ξ) − A) (x − a)|,

donde ξ ∈ (a, x). Si x ∈ (a, a + δ), entonces 0 < x − ξ < δ y |y ! (ξ) − A| < 0.
Por lo tanto, la igualdad de la derecha en la ecuación anterior es menor que
0|x − a|, lo cual implica que
2 2
2 y(x) − y(a) 2
2 − A22 < 0.
2 x−a

Ası́ queda probado el resultado para a. En b la demostración es totalmente


idéntica.
Definición 7: sea (x0 , y0 ) ∈ D. Al rectángulo de la forma

S = {|x − x0 | < α, |y − y0 | < M α}, (7.3.1)

donde M y α están definidos en (7.2.8) se le llama rectángulo de seguridad


para el punto (x0 , y0 ), al cual se le llama centro de S. Por la definición
S ⊂ D. Recordemos que las soluciones aproximadas que se discutı́an en el
Paso 1 del apartado anterior estaban incluidas en el rectángulo de seguridad
de (x0 , y0 ).
Es fácil probar que todo punto de D es centro de un rectángulo de seguridad.
El siguiente resultado nos indica que si S es un rectángulo de seguridad de
y ! = f (x, y), la solución de esta ecuación pasando por (x0 , y0 ) dada por
7.3. TEOREMAS DE PROLONGACIÓN DE SOLUCIONES 253

el teorema de existencia, está en S. Este es el motivo para llamar a S


rectángulo de seguridad.
Lema 4: supongamos que la solución y = y(x) de la ecuación y ! = f (x, y)
está definida en un intervalo I y pasa por (x0 , y0 ) ∈ D. Sea S un rectángulo
de seguridad del punto (x0 , y0 ) como se ha definido en (7.3.1). Vamos a
llamar J al intervalo [x0 − α, x0 + α]. Entonces para todo punto x ∈ I ∩ J
se verifica que (x, y(x)) ∈ S.
Lo que nos dice este lema es que en el intervalo I ∩ J, la gráfica de la
función y(x) está contenida en el rectángulo S. Véase la Figura 7.2.

(x 0 ,y 0 )

I»J

Figura 7.2: Esquema de la demostración del


lema 4.

Demostración: como y(x) es continua en el punto x0 , fijado 0 = M α,


existe h > 0 tal que si x ∈ [x0 − h, x0 + h], entonces17

|y(x) − y0 | < M α. (7.3.2)

Designemos por a y b respectivamente los extremos inferior y superior de


I ∩ J. Vemos entonces que se han de verificar las siguientes desigualdades:

x0 − α ≤ a < x0 < b ≤ x0 + α. (7.3.3)

Razonemos ahora por reducción al absurdo y supongamos que en el inter-


valo (x0 , b) existen puntos x para los cuales (x, y(x)) no está contenido en
el rectángulo S. La desigualdad (7.3.2) nos muestra que estos puntos no
pueden estar contenidos en el intervalo (x0 , x0 + h). Luego el conjunto de
17
Obsérvese que h hace el papel de δ.
254 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

tales puntos está acotado inferiormente. Llamemos β a su extremo inferior


(β ≥ x0 +h). Por nuestra hipótesis de absurdo β < b, ya que de lo contrario
para todos los puntos en (x0 , b), (x, y(x)) ∈ S. El extremo inferior de un
conjunto es siempre adherente, de tal manera que en todo entorno de β
existirán puntos x para los cuales
|y(x) − y0 | > M α.
Pero resulta que y(x) es continua en el punto β ya que β ∈ I ∩ J y la
función módulo es continua. De esta manera
M α ≤ lim |y(x) − y0 | = |y(β) − y0 |. (7.3.4)
x→β

Como β < x0 + α, para todos los puntos del intervalo [x0 , β) se verificará
(7.3.2). Ası́, la gráfica de la función y(x) en [x0 , β) está contenida en S. De
esta manera, si x ∈ [x0 , β) se tiene que
|y ! (x)| = |f (x, y(x))| ≤ M =⇒ ±y ! (x) ≤ M.
Integrando estas dos últimas desigualdades entre x0 y β, obtenemos
|y(β) − y(x0 )| ≤ M (β − x0 ) < M α. (7.3.5)
Hemos llegado a una contradicción entre (7.3.4) y (7.3.5), debido a nues-
tra hipótesis según la cual en el intervalo (x0 , b) existen puntos x para los
cuales (x, y(x)) no está contenido en el rectángulo S. Para eliminar la con-
tradicción hemos de aceptar la falsedad de esta hipótesis. Un razonamiento
análogo serı́a válido en el intervalo (a, x0 ].
Definición 8: diremos que B = (b, β) ∈ R2 es un valor de adherencia
de (x, y(x)) cuando x → b si existe una sucesión convergente {xi }, for-
mada por puntos del intervalo de definición de la solución y(x), tal que
{(xn , y(xn ))} → B. Nótese que entonces si B = (b, β), y(xn ) → β.
Teorema 3 (teorema fundamental de la prolongación de solu-
ciones): consideremos la ecuación diferencial y ! = f (x, y), donde f (x, y)
es una función continua en un dominio D del plano real. Sea y = y(x) una
solución de esta ecuación diferencial definida en un intervalo abierto (a, b),
tal que (x, y(x)) ∈ D, ∀ x ∈ (a, b).
Es condición necesaria y suficiente para que la prolongación de la solución
más allá del punto b sea posible, que uno de los valores de adherencia de
(x, y(x)) cuando x → b esté en D.
7.3. TEOREMAS DE PROLONGACIÓN DE SOLUCIONES 255

Demostración:

• Suficiencia.
Sea (b, β) un valor de adherencia de (x, y(x)) cuando x → b y supon-
gamos que este punto está en D. Sabemos que existe un rectángulo
de seguridad S centrado en este punto. Por supuesto S ⊂ D. S está
definido mediante las desigualdades (véase la Figura 7.3)

|x − b| ≤ α, |y − β| ≤ M α.

S
Ma
(b, b)

Figura 7.3: Esquema de la demostración del teo-


rema 3.

Por ser (b, β) un valor de adherencia de (x, y(x)), en todo entorno


de este punto podemos encontrar puntos de la gráfica de y(x). En
particular, existe sobre esta gráfica un punto (b1 , β1 ) tal que

α Mα
|b − b1 | < , |β − β1 | < . (7.3.6)
3 3
De esta forma, el rectángulo S1 de centro en (b1 , β1 ) y definido me-
diante
2α 2M α
|x − b1 | < , |y − β1 | <
3 3
está contenido en S y es un rectángulo de seguridad para el punto
(b1 , β1 ). Como este punto pertenece a la gráfica de y(x), está claro que
b1 < b. Por la ecuación (7.3.6) sabemos que b < b1 + α/3 < b1 + 2α/3.
256 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Si J = [b1 − 2α/3, b1 + 2α/3], el intervalo (b1 , b) está contenido en


la intersección de J con I = (a, b) (recordemos que la solución y(x)
está definida en I). Aplicando el lema 4, la gráfica de y(x) está en el
rectángulo de seguridad, lo que equivale a decir que para todo punto
x ∈ (b1 , b)

|y ! (x)| = |f (x, y(x)| ≤ M ⇒ ±y ! (x) ≤ M. (7.3.7)

Integrando la desigualdad de la derecha de (7.3.7) entre x! y x!! , ambos


en (b1 , b) y tomando módulos, se obtiene

|y(x! ) − y(x!! )| ≤ M |x! − x!! |, ∀ x! , x!! ∈ (b1 , b). (7.3.8)

Vamos a demostrar que (7.3.7) implica que y(x) → β cuando x → b.


Por ser (b, β) un valor de adherencia de (x, y(x)), existe una sucesión
{xn }, convergiendo a b tal que ∀ 0 > 0, ∃ δ ! > 0 tal que si |xn − b| < δ ! ,
entonces |y(xn ) − β| < 0. Sea
' 0 (
δ := min δ ! , .
M
Escojamos x ∈ (b1 , b) tal que |b − x| < δ y un xn en la sucesión {xn },
definida en el párrafo anterior, con |b − xn | < δ. Entonces

|y(x) − β| ≤| y(x) − y(xn )| + |y(xn ) − β| ≤ M |x − xn | + |y(xn ) − β|


≤ M (|x − b| + |b − xn |) + |y(xn ) − β|
≤ 2M δ + 0 ≤ 30, (7.3.9)

con lo que está demostrado que lim y(x) = β.


x→b
Recordemos ahora que el punto (b, β) está en el abierto en el cual
f (x, y) es continua. De aquı́:

lim y ! (x) = f (b, β).


x→b

Volviendo al lema 3, la función y = y(x) admite derivada a la izquierda


en el punto b y esta derivada coincide con f (b, β). De esta forma,
hemos probado que:
1.– y ! (b) = f (b, β).
2.– y(b) = β.
7.3. TEOREMAS DE PROLONGACIÓN DE SOLUCIONES 257

Aplicando el teorema de existencia se infiere que existe al menos una


solución y = y1 (x) que verifica estas dos propiedades. Esta solución
está definida en un entorno de b y prolonga la solución inicial y = y(x).

Nota. Este resultado no nos garantiza la unicidad de la prolongación


ya que no hemos hecho ninguna hipótesis sobre la continuidad de la
derivada parcial ∂f /∂y. Si añadimos esta condición vemos que la
prolongación y = y1 (x) de y = y(x) coincide con ésta a la izquierda
de b y es una prologación definida unı́vocamente a la derecha de b (al
menos en un cierto entorno de b).

• Necesidad.
Si la prolongación de y(x) al otro lado de b es posible, esta función
ha de ser continua en b. Por lo tanto debe de existir el lı́mite de y(x)
cuando x → b, llamémosle β. Entonces el punto (b, β) pertenece a
la gráfica (o al grafo) de y(x), el cual debe de estar contenido en D.
Claramente debe de existir una sucesión xn → b tal que

(xn , y(xn )) → (b, β).

Comentamos al comienzo de la presente sección que las soluciones maxi-


males deberı́an de existir como consecuencia del axioma de Zorn. El si-
guiente resultado nos permite ver como se pueden obtener estas soluciones
maximales.
Teorema 4: sea la ecuación diferencial y ! = f (x, y) donde f (x, y) es una
función continua en un dominio D, en el cual existe ∂f /∂y y es continua.
Entonces dado un punto (x0 , y0 ) ∈ D, existe una solución y = ϕ(x) de la
ecuación definida en un cierto intervalo (m1 , m2 ), pasando por (x0 , y0 ) y
tal que el intervalo de definición de cualquier otra solución pasando por el
mismo punto, está contenido en (m1 , m2 ).
Por el teorema de unicidad, si y = ψ(x) es esta segunda solución, ha
de coincidir con y = ϕ(x) en el intervalo de definición de la primera. La
solución y = ϕ(x) es entonces la solución maximal pasando por (x0 , y0 ),
respecto al abierto D.
Demostración: cada solución de la ecuación diferencial y ! = f (x, y)
pasando por (x0 , y0 ) y contenida en el abierto D, está definida en un cierto
intervalo. Designaremos por R2 al conjunto de los extremos superiores
258 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

de estos intervalos y por R1 al conjunto de los extremos inferiores de los


intervalos.
Sea m1 el extremo inferior de R1 (eventualmente −∞) y m2 el extremo
superior de R2 (que puede ser ∞). Vamos a construir una solución y = ϕ(x)
pasando por (x0 , y0 ) y definida en (m1 , m2 ) y vamos a ver que ella es la
solución deseada.
Sea x∗ un punto arbitrario del intervalo (m1 , m2 ). Por la definición
del mismo, existe una solución y = φ(x) pasando por (x0 , y0 ), definida
en un intervalo (r1 , r2 ), el cual contiene al punto x∗ . Definamos entonces
ϕ(x∗ ) := φ(x∗ ).
Veamos que ϕ(x∗ ) está efectivamente bien definido, es decir, que no
depende de la solución φ(x) elegida. En efecto, sea y = η(x) otra solución
definida en un intervalo (s1 , s2 ) al cual también pertenece x∗ . Entonces,
por el teorema de unicidad, φ(x) y η(x) coinciden en la parte común de sus
intervalos de definición y, por lo tanto, η(x∗ ) = φ(x∗ ) = ϕ(x∗ ). Ası́, ϕ(x∗ )
está bien definido.
Veamos que y = ϕ(x) constituye una solución de la ecuación en el
intervalo (m1 , m2 ). En efecto, dado cualquier punto x∗ perteneciente a
este intervalo, podemos considerar una solución y = φ(x∗ ) de la ecuación
pasando por (x0 , y0 ) y cuyo intervalo de definción contenga al punto x∗ . En
un entorno de dicho punto x∗ , la función φ(x) es solución de la ecuación
diferencial con los valores iniciales dado y, por lo tanto, φ(x) = ϕ(x). De
esta manera, vemos que y = ϕ(x) es una solución de la ecuación diferencial.
Dada cualquier otra solución y = φ(x) pasando por (x0 , y0 ), estará
definida en un cierto intervalo (r1 , r2 ) donde r1 ∈ R1 y r2 ∈ R2 . Luego
entonces m1 ≤ r1 y r2 ≤ m2 . De esta manera el intervalo (m1 , m2 ) contiene
a (r1 , r2 ), lo que significa que la solución y = ϕ(x) es maximal.

Nota. Este tipo de resultados no nos garantizan que las soluciones sean
prolongables hasta la frontera de D. Por ejemplo, aunque f (x, y) esté
definida y sea continua en todo el plano real, esto no significa que toda
solución y = y(x) de la ecuación diferencial y ! = f (x, y) pueda ser in-
definidamente prolongable. Pudiera suceder que y(x) tendiera a infinito
cuando x tienda hacia un valor finito a y, en este caso, no existen valores
adherentes interiores al dominio.

Ejemplo 4: consideremos la ecuación diferencial dy/dx = y 2 . Sus solu-


7.4. DEPENDENCIA RESPECTO A LOS VALORES INICIALES 259

ciones son de la forma:


1
y= .
a−x
Sus soluciones maximales estarán definidas en intervalos de la forma (−∞, a)
y (a, ∞).

7.4 Dependencia respecto a los valores iniciales

Una de las cuestiones más interesantes que nos podemos plantear en la


teorı́a de las ecuaciones diferenciales es el de la estabilidad con respecto a
las condiciones iniciales. Dada la única solución que pasa por el punto
(x0 , y0 ) ∈ D y dado un punto (x1 , y1 ) ∈ D muy próximo al anterior, la
cuestión puede formularse como: ¿bajo qué condiciones la solución de la
ecuación pasando por ambos puntos se mantiene próxima a lo largo de la
intersección sus intervalos de definición? Vamos a tratar de dar algunas
respuestas parciales a esta pregunta a lo largo de esta sección.
El lector se preguntará el porqué del interés de semejante problema.
Pues bien, sabemos que la dinámica de un punto material (por ejemplo en
una dimensión) está regida por un sistema de dos ecuaciones diferenciales

dp(t) dx(t) p(t)


= f (x, p, t), = ,
dt dt m
donde x(t) y p(t) son respectivamente la posición y el momento del punto
en el instante t. La constante m es la masa del mismo y F (x, p, t) es la
fuerza exterior aplicada que puede depender de estas variables. Aunque
este sistema no tiene, en principio, la forma y ! = f (x, y), vamos a ver que
puede escribirse de esta manera en dos dimensiones. En efecto, escribamos
$ %
! dx(t) dp(t)
"y (t) = (x(t), p(t)) ⇒ y" (t) = ,
dt dt

= (p/m, f (x, p, t)) = F" (x, p, t) = F" ("y , t), (7.4.1)

donde hemos definido F" (x, p, t) en la lı́nea precedente. Este tipo de ecua-
ciones obedece un teorema de existencia y unicidad análogo al estudiado
hasta ahora. En efecto, si F es de clase C 1 (D) donde D es un dominio de
R3 y (x0 , p0 , t0 ) ∈ D, entonces existe una única solución en D x = x(t),
p = p(t), verificando las condiciones iniciales x0 = x(t0 ), p0 = p(t0 ).
260 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Se comprende ahora que nos preguntemos si, variando ligeramente las


condiciones iniciales de nuestro punto material, la trayectoria del mismo en
el espacio de las fases va a ser o no similar a la anterior. Recordemos que uno
de los orı́genes de la teorı́a clásica del caos es el llamado efecto mariposa,
que podrı́amos resumir ası́: bajo ciertas condiciones, un ligerı́simo cambio
en las condiciones iniciales de un sistema fı́sico puede producir cambios
enormes en el estado del mismo al cabo de un cierto tiempo finito.
Esta es una de las motivaciones del estudio de la dependencia de las
soluciones con respecto a las condiciones iniciales. Como quiera que para
analizar lo que sucede en sistemas complejos es necesario previamente en-
tender lo que pasa en los más simples, vamos a limitarnos, de momento al
estudio de la dependencia para las ecuaciones del tipo y ! = f (x, y). De-
mostraremos un teorema de estabilidad de soluciones con respecto a los
valores iniciales. Pero antes, necesitamos un par de lemas previos
Lema 5: sean V (x) y ϕ(x) continuas en [a, b] y V (x) derivable en (a, b). Si
se cumple que V ! (x) ≤ kV (x) + ϕ(x) con V (a) = 0, siendo k una constante,
se verifica que 1 x
V (x) ≤ ekx ϕ(u) e−ku du.
a

Demostración: ciertamente si V ! (x) − kV (x) ≤ ϕ(x), existe una función


χ(x) ≤ 0 tal que
V ! (x) − kV (x) = ϕ(x) + χ(x).
Esta es una ecuación diferencial lineal de primer orden que se integra in-
mediatamente y se tiene
1 x
V (x) = ekx
e−ku [ϕ(u) + χ(u)] du (7.4.2)
a
1 x 1 x 1 x
= ekx e−ku ϕ(u) du + ekx e−ku χ(u) du ≤ ekx ϕ(u) e−ku du.
a a a
1 x
pues ekx e−ku χ(u) du ≤ 0 al ser ekx y e−ku positivos y χ(u) negativa.
a

Lema 6: sea y ! = f (x, y) una ecuación diferencial ordinaria de primer


orden tal que:

1. f (x, y) es continua en la banda [A, B] × R (x varı́a entre A y B,


mientras que y es arbitrario);
7.4. DEPENDENCIA RESPECTO A LOS VALORES INICIALES 261

2. f (x, y) es lipschitziana en el mismo conjunto.

Entonces la solución de la ecuación pasando por un punto (x0 , y0 ) del in-


terior de la banda tiene como soporte el intervalo [A, B] (obsérvese que el
lema 6 nos proporciona un ejemplo en el cual la solución llega hasta la
frontera del dominio D de continuidad de f (x, y)).

Demostración: llamemos φ(x) a la solución. Está claro que φ(x) debe de


verificar que18 1 x
φ(x) = y0 + f (u, φ(u)) du,
x0
de donde deducimos que
21 x 2
2 2
|φ(x) − y0 | = 22 f (u, φ(u)) du22
x0
21 x 2
2 2
2
≤ 2 [f (u, φ(u)) − f (u, y0 ) + f (u, y0 )] du22
x0
21 x 2 21 2
2 2 2 x 2
2
≤ 2 [f (u, φ(u)) − f (u, y0 )] du22 + 22 f (u, y0 ) du22 . (7.4.3)
x0 x0

Aplicando aquı́ la condición de Lipschitz con respecto a la segunda variable,


resulta que (7.4.3) es menor o igual que
21 x 2 21 x 2
2 2 2 2
2 2 2
k|φ(u) − y0 | du2 + 2 f (u, y0 ) du22 . (7.4.4)
2
x0 x0

Apliquemos ahora el lema 5. Para ello, identifiquemos:


21 x 2 21 x 2
2 2 2 2
2
V (x) = 2 2
|φ(u) − y0 | du2 , ϕ(x) = 22 f (u, y0 ) du22 .
x0 x0

Vemos que V ! (x) = |φ(x) − y0 |, lo que implica que V ! (x) ≤ kV (x) + ϕ(x)
(por (7.4.3) y (7.4.4)) y V (x0 ) = 0. Entonces, el lema 5 nos dice que
21 x 2 1 x 21 u 2
2 2 2 2 −ku
2 |φ(u) − y | du 2 ≤ ekx 2 f (s, y ) ds 2e du.
2 0 2 2 0 2
x0 x0 x0

Sea ahora b el punto en el que φ(x) no se puede prolongar hacia la derecha.


Supongamos que b < B. Vimos que, siendo b un punto interior al intervalo
18
Para comprobarlo basta derivar la expresión que sigue.
262 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

[A, B] la solución no se podı́a prolongar más allá de b cuando el lı́mite


lim φ(x) era infinito. Pero esto no puede pasar, ya que |φ(x) − y0 | está
x→b−
acotada por 2 2
1 x 21 u 2
2 f (s, y0 ) ds22 e−ku du,
2
x0 x0

que tiene un lı́mite finito cuando x → b−. Sea lim φ(x) = H. Vemos
x→b−
que (b, H) pertenece obviamente a la banda y es un valor de adherencia de
φ(x) cuando x → b−, luego, puede ser prolongado por la derecha. Hemos
llegado a una contradicción que se resuelve si b = B. Si razonamos de
manera análoga por la izquierda concluimos que el soporte de φ(x) es el
intervalo [A, B].

Teorema 5: consideremos la ecuación diferencial ordinaria de primer orden


y ! = f (x, y). Supongamos que la función f (x, y) está definida y es continua
en un dominio D del plano real. En D, ∂f /∂y es también continua. Sea
(x0 , y0 ) ∈ D. Llamemos φ(x, x0 , y0 ) a la solución maximal que pasa por el
punto (x0 , y0 ). Bajo estas condiciones, por cada punto de D pasa una de
estas soluciones maximales, y sólo una. Además, la función φ(x, x0 , y0 ) es
continua respecto a sus tres variables.

Nota: obsérvese que la continuidad de la función φ(x, x0 , y0 ) con respecto


al valor inicial (x0 , y0 ), nos garantiza la estabilidad de la solución: pequeños
cambios en las condiciones iniciales tienen una repercusión pequeña en la
solución obtenida.

Demostración: supongamos que para la terna (u, u0 , w0 ) está definida


la función φ(u, u0 , w0 ). Supongamos que u > u0 , si fuera lo contrario
razonarı́amos de manera análoga.
Tomemos w = φ(u, u0 , w0 ). Como el punto (u, w) es interior a D, el
teorema de prolongación nos dice que la solución de la ecuación, pasando
por (u0 , w0 ), φ(x, u0 , w0 ), se puede prolongar por la derecha más allá de u.
Asimismo se puede prolongar por la izquierda má allá de u0 . Ası́ tendremos
una solución definida en un intervalo de la forma [u0 − α, u + α], α > 0, a
la que denominaremos como g(x).
Dado β > 0, consideremos ahora la siguiente banda, a la que llamaremos
B, formada por los puntos (x, y) tales que:

u0 − α ≤ x ≤ u + α, g(x) − β ≤ y ≤ g(x) + β, (7.4.5)


7.4. DEPENDENCIA RESPECTO A LOS VALORES INICIALES 263

escogiendo β para que B esté contenido en D. Obsérvese que esta banda


siempre puede construirse eligiendo un β adecuado. En efecto, cuando
x ∈ [u0 − α, u + α], la gráfica de la función g(x) es el conjunto de puntos
de la forma (x, g(x)) (véase la Figura 7.4). Este conjunto es acotado y
cerrado y por lo tanto compacto (véase la figura). Los puntos (x, g(x)) con
x ∈ [u0 − α, u + α] son interiores a D, pues en ellos está definida la solución
g(x). Pero los puntos
(u0 − α, g(u0 − α)) y (u + α, g(u + α))
también están en D, pues la solución puede prolongarse a la izquierda de
u0 − α y a la derecha de u + α. Ahora bien, el complementario de D
en R2 es un cerrado y entre un cerrado y un compacto siempre hay una
distancia mayor que cero. Sea d la distancia entre el complementario de D
y la gráfica de g(x) en el intervalo [u0 − α, u + α]. Entonces β es cualquier
número 0 < β < d.

g(x)

B
b
w0
b

u0-a u0 u+a

Figura 7.4: Esquema de la demostración del teo-


rema 5.

La banda B es cerrada y acotada, ergo compacta, y por lo tanto existe


k > 0 tal que 2 2
2 ∂f (x, y) 2
2 2
2 ∂y 2 ≤ k , ∀ x, y ∈ B.

Sea ahora (x0 , y0 ) otro punto interior de la banda, tal que cumpla las
siguientes condiciones:
|x0 − u0 | < δ1 , |y0 − w0 | < δ2 . (7.4.6)
264 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Más tarde veremos como se fija δ2 . Una vez que tenemos δ2 , por la con-
tinuidad de la función g(x), debe de existir un δ1 tal que si |x0 − u0 | < δ1 ,
entonces, |g(x0 ) − w0 | < δ2 . Este es el δ1 que aparece en (7.4.6).
El criterio para elegir el δ2 es que la solución h(x) pasando por el punto
(x0 , y0 ) esté definida en el intervalo [u0 −α, u+α] y permanezca en la banda
cuando x ∈ [u0 − α, u + α]. Vamos a ver como es esto posible (Figura 7.5).

(x 0,y 0)

h(x)

x g(x)
x

(u 0,w 0)
Figura 7.5: Segundo esquema de la demostración
del teorema 5.

Sea x ∈ (x0 , u + α), y definamos la función


1 x
V (x) := |h(x) − g(x)| dx.
x0

Por ser f (x) y g(x) soluciones de la ecuación diferencial, tenemos que


1 x 1 x
h(x) = y0 + f (s, h(s)) ds, g(x) = g(x0 ) + f (s, g(s)) ds.
x0 x0

Estas fórmulas nos dan


21 x 2
2 2
V (x) = |h(x) − g(x)| = 2 [f (s, h(s)) − f (s, g(s))] ds + y0 − g(x0 )22
! 2
x0
1 x
≤ |f (s, h(s)) − f (s, g(s))| ds + |y0 + ω0 − ω0 − g(x0 )|
x0
1 x
≤ |f (s, h(s)) − f (s, g(s))| ds + |y0 − ω0 | + |ω0 − g(x0 )|. (7.4.7)
x0
7.4. DEPENDENCIA RESPECTO A LOS VALORES INICIALES 265

Los dos últimos módulos han sido escogidos menores que δ2 . Por otro lado,
como B es un conjunto convexo y ∂f /∂y está acotada en B, resulta que f
satisface la condición de Lipschitz para y en B. Esto quiere decir que existe
una constante positiva K tal que

|f (s, h(s)) − f (s, g(s))| ≤ K |f (s) − g(s)|,

de manera que
V ! (x) ≤ K V (x) + 2δ2 . (7.4.8)
Aplicando ahora el lema 5, con ϕ(x) = 2δ2 , resulta que
2δ2 ' K|x−x0 | (
V (x) ≤ e −1 . (7.4.9)
K
Aplicando (7.4.7), (7.4.8) y (7.4.9) vemos que

|h(x) − g(x)| = V ! (x) ≤ 2δ2 eK|x−x0 | .

Ahora bien, si queremos que la solución h(x) esté en la banda, se ha de


verificar que |h(x) − g(x)| < β, lo cual garantiza que h(x) admita una
prolongación que esté definida en el intervalo (x0 , u + α). Este criterio es el
que nos va a permitir elegir δ2 . En efecto, quedará satisfecho si escogemos δ2
de tal manera que 2δ2 eK|x−x0 | ≤ β. Estos x están acotados superiormente
por u + α. Luego escojamos
1
δ2 ≤ β e−K|u+α−x0 | .
2
Fijamos ahora 0 de tal manera que 0/2 < β. Este 0/2 puede hacer el papel
de nuevo β y puedo construir nuevos δ2 y δ1 correspondiendo a esta nueva
elección de la anchura de la banda. Recordemos que la solución g(x) es
continua en el punto u, de tal manera que para este 0/2 existirá un δ3 tal
que si |x − u| < δ3 , entonces |g(x) − g(u)| < 0/2. De esta manera, tomando
para el punto (u, u0 , w0 ) el entorno (con los nuevos δi )

|u0 − x0 | < δ1 , |w0 − y0 | < δ2 , |u − x| < δ3 ,

se tiene que

|φ(u, u0 , w0 )−φ(x, x0 , y0 )| = |g(u)−h(x)| ≤| g(u)−g(x)|+|g(x)−h(x)| < 0,

con lo que el teorema queda demostrado.


266 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

7.5 Dependencia respecto a los parámetros

En este apartado vamos a considerar una familia de funciones f (λ, x, y)


donde λ es un parámetro que varı́a en un cierto intevalo de la recta, y
vamos a estudiar la dependencia de las soluciones y = y(λ, x) de la ecuación
diferencial y ! = f (λ, x, y) con respecto al parámetro λ. El primer resultado
es el que exponemos a continuación:
Lema 7 (de Peano-Gronwall): sea f (t) una función real y continua
definida en el intervalo [t0 , t1 ], verificando la siguiente desigualdad:
1 t
0 ≤ f (t) ≤ λ + µf (x) dx (7.5.1)
t0

donde λ y µ son constantes positivas y t ∈ [t0 , t1 ]. Si llamamos T := t1 − t0 ,


se verifica entonces que
f (t) ≤ λ eµT .

Demostración: definamos en primer lugar una función g(t) como

g(t) := e−µ(t−t0 ) f (t). (7.5.2)

Esta función es obviamente continua en el intervalo [t0 , t1 ] por ser producto


de funciones continuas en dicho intervalo. Este es compacto y la función
admitirá un máximo. Esto quiere decir que existe un punto t∗ ∈ [t0 , t1 ] tal
que
g(t∗ ) = γ := max g(t).
t∈[t0 ,t1 ]

Pero entonces
∗ −t
f (t∗ ) = g(t∗ ) eµ(t 0)

y como t∗ ∈ [t0 , t1 ], utilizando (7.5.1) y (7.5.2) vemos que


1 t∗

f (t ) ≤ λ + µ eµ(x−t0 ) g(x) dx.
t0

Como g(x) ≤ g(t∗ ) = γ, esto es menor o igual que


1 t∗ ' (

λ+γ µ eµ(x−t0 ) dx = λ + γ eµ(t −t0 ) − 1 ,
t0
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 267

donde la última integral se obtiene mediante integración. De esta manera



' ∗
(
γ eµ(t −t0 ) ≤ λ + γ eµ(t −t0 ) − 1 ,

o equivalentemente γ ≤ λ. Ası́ pues, aplicando de nuevo (7.5.1) y (7.5.2)


tenemos que
1 t 1 t
f (t) ≤ λ + µ g(x) eµ(x−t0 ) dx ≤ λ + γ µ eµ(x−t0 ) dx
t0 t0
' ( ' (
= λ + γ eµ(t−t0 ) − 1 ≤ λ + λ eµ(t−t0 ) − 1

= λ eµ(t−t0 ) ≤ λ eµT , (7.5.3)


y el lema está demostrado.
Lema 8: sea f (x, y) una función continua en un compacto K del plano
real, donde satisface una condición de Lipschitz respecto a la variable y
con constante K. Sean (a0 , b0 ) y (a1 , b1 ) dos puntos en el interior de K e
I un intervalo real que contenga a los puntos a0 y a1 y en el cual existan
las soluciones de la ecuación diferencial y ! = f (x, y) pasando por los dos
puntos mencionados. Llamemos a estas dos soluciones respectivamente
ϕ(x, a0 , b0 ) ≡ ϕ(x) y ϕ(x, a1 , b1 ) ≡ ψ(x).
Entonces
|ϕ(x) − ψ(x)| ≤ (|b0 − b1 | + M |a0 − a1 |) eK|x−a0 | ,
donde M es el máximo de |f (x, y)| en K.
Demostración: la prueba se obtiene tras la siguiente cadena de desigual-
dades:
2 1 x 2
2 2
2
|ϕ(x) − ψ(x)| = 2ϕ(a0 ) − ψ(a0 ) + (f (t, ϕ(t)) − f (t, ψ(t)) dt22
a0
21 x 2
2 2
≤ |b0 − b1 + b1 − ψ(a0 )| + 22 (f (t, ϕ(t)) − f (t, ψ(t)) dt22
a0
21 x 2
2 2
≤ |b0 − b1 | + |b1 − ψ(a0 )| + 22 (f (t, ϕ(t)) − f (t, ψ(t)) dt22
a0
1 x
≤ |b0 − b1 | + M |a1 − a0 | + K|ϕ(t) − ψ(t)| dt.
a0
268 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

La última desigualdad proviene de aplicar la condición de Lipschitz a f (x, y)


y de tener en cuenta que

|b1 − ψ(a0 )| = |ψ(a1 ) − ψ(a0 )| = |ψ ! (ξ)| |a1 − a0 |


= |f (ξ, ψ(ξ))| |a1 − a0 | ≤ M |a1 − a0 |,

usando el teorema del valor medio.


Utilizando ahora el lema de Peano-Gronwall con f (t) = |ϕ(t) − ψ(t)|,
µ = K y λ = |b0 − b1 | + M |b1 − a1 |, obtenemos trivialmente el resultado
apetecido.

Veamos a continuación uno de los resultados más importantes relativos


a la dependencia de las ecuaciones con respecto a los parámetros.
Teorema 6: sea f (x, y, µ) es una familia de funciones parametrizada por
µ y consideremos la familia de ecuaciones diferenciales y ! = f (x, y, µ).
Supongamos que, como función de tres variables, f (x, y, µ) es continua
y admite derivada parcial continua con respecto a y, ∂f /∂y, en un cierto
dominio Γ ⊂ R3 . Sea (x0 , y0 , µ0 ) un punto arbitrario de Γ. Entonces exis-
ten dos números positivos r y ρ tal que para |µ − µ0 | ≤ ρ, la solución
y = ϕ(x, µ) que satisface la condición inicial y0 = ϕ(x0 , µ) está definida en
el intervalo |x − x0 | ≤ r y es una función continua de las variables x y µ de
las cuales depende.
El resultado anterior puede resumirse como sigue: si f (x, y, µ) es con-
tinua en las tres variables y admite derivada parcial continua con respecto
de y en un cierto dominio, las soluciones dependen de manera continua del
parámetro. Pequeñas variaciones del mismo producen pequeñas variaciones
en la solución verificando unos valores iniciales fijos.
Demostración: vamos a realizarla en varios pasos.

• PASO 1.
Tomemos el punto (x0 , y0 , µ0 ) ∈ Γ. Como Γ es abierto, existe un para-
lelepı́pedo cerrado P centrado en (x0 , y0 , µ0 ) totalmente contenido en
Γ (véase la Figura 7.6). Supongamos que la longitud de los lados de
P es 2a, 2b y 2ρ, de tal manera que está caracterizado por:

|x − x0 | ≤ a, |y − y0 | ≤ b, |µ − µ0 | ≤ ρ.
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 269

2r

. (x 0,y 0,m 0)

2b
G
2a

Figura 7.6: Esquema de la demostración del teo-


rema 6.

Ovbiamente P es un conjunto compacto. Como f y ∂f /∂y son con-


tinuas en Γ, estarán acotadas en P, de tal manera que si (x, y, µ) ∈ P,
existirán dos constantes positivas M y K tales que
2 2
2 ∂f 2
|f (x, y, µ)| ≤ M, 2 (x, y, µ) 2 ≤ K. (7.5.4)
2 ∂y 2

Recordemos ahora los teoremas de existencia y prolongación de solu-


ciones. Estos resultados garantizan que si
$ %
b 1
r < min a, , (7.5.5)
M K
para cualquier valor fijo µ que verifique |µ − µ0 | ≤ ρ, entonces la
solución y = ϕ(x, µ) pasando por (x0 , y0 ) está definida en el intervalo
|x − x0 | ≤ r. Para ello bastará tomar a y b suficientemente pequeños.
• PASO 2.
Sea ahora el compacto K del plano real, definido como:

K = {|x − x0 | ≤ r, |µ − µ0 | ≤ ρ} .
270 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Llamamos F a el conjunto de las funciones continuas de K en R. Sea


φ(x, µ) ∈ F. Definamos una aplicación lineal B de F en F de la
manera siguiente::
1 x
(B f )(x, µ) := y0 + f (t, φ(t, µ), µ) dt.
x0

Claramente (B f )(x, µ) es una función continua en K y B es ob-


viamente lineal. Consideremos la siguiente sucesión de funciones
definidas y continuas en K:

ϕ0 (x, µ) ≡ y0 , ϕ1 (x, µ) := Bϕ0 , ϕ2 := Bϕ1 = B 2 ϕ0 , . . . , ϕn = B n ϕ0 .

Notemos que
1 x
ϕn = y0 + f (t, ϕn−1 (t, µ), µ) dt. (7.5.6)
x0

• PASO 3.
Fijémonos ahora en que
1 x
b
|ϕ1 (x, µ) − y0 | ≤ |f (t, y0 , µ)| dt ≤ M r < M = b.
x0 M
Estas desigualdades son inmediatas. la primera es consecuencia de
(7.5.6), la segunda de (7.5.4) y del hecho que |x − x0 | ≤ r y la tercera
de (7.5.5).
Por lo tanto, ϕ1 (x, µ) está en el cuadrado {|x − x0 | < r, |y − y0 | < b}.
Para ver que todas las ϕn están en el mismo cuadrado, utilizaremos
el método de inducción fijándonos en que
1 x
|ϕn (x, µ) − y0 | ≤ |f (t, ϕn−1 (t, µ), µ)| dt ≤ M r < b.
x0

• PASO 4.
Demostremos ahora que existe el siguiente lı́mite:

lim ϕn (x, µ).


n→∞

Sea φ ∈ F. Definamos

||φ|| := sup |φ(x, µ)|.


(x,µ)∈K
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 271

Sabemos que si φ ∈ F ⇒ Bφ ∈ F. Sean φ y ψ dos funciones de F.


Consideremos
1 x
Bφ − Bψ = [f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ)] dt.
x0

Tomando módulos
1 x
|Bφ − Bψ| ≤ |f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ)| dt. (7.5.7)
x0

Por el teorema del valor medio, para cada t se ha de verificar que

∂f
f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ) = (t, θ, µ) (φ − ψ), (7.5.8)
∂y

donde θ está comprendido entre φ(t, µ) y ψ(t, µ) (que son dos números
reales). Tomemos φ y ψ como funciones de {|x−x0 | < r, |y−y0 | < b},
lo cual va a ser el caso de las φ y ψ que hemos de considerar. Entonces
θ ∈ (y0 − b, y0 + b) y, por lo tanto, (t, θ, µ) ∈ P. De esta suerte
2 2
2 ∂f 2
2 (t, θ, µ)2 ≤ K,
2 ∂y 2

y además por (7.5.8)19

|f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ)| ≤ K |φ(t, µ) − ψ(t, µ)|
≤K sup |φ(t, µ) − ψ(t, µ)| ≤ K ||φ − ψ||.
(x,µ)∈K

Ası́, como |x − x0 | ≤ r:
1 x
|f (t, φ(t, µ), µ) − f (t, ψ(t, µ), µ)| dt ≤ Kr ||φ − ψ||,
x0
19
Definimos la norma de una función continua f (x, µ) en el compacto K como

||f || := sup |f (x, µ)|.


(x,µ)∈K

Dado que K es un compacto, el supremo siempre existe. Sabemos que ||f || es efectiva-
mente una norma en F , lo que confiere a F la estructura de espacio normado. Es más,
se trata de un espacio de Banach (véase el libro de Burkill and Burkill), es decir, en él
toda sucesión de Cauchy por la norma de F admite lı́mite.
272 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

lo que implica utilizando (7.5.7) que:

|Bφ − Bψ| ≤ Kr ||φ − ψ|| ⇒


||Bφ − Bψ|| = sup |Bφ(x, µ) − Bψ(x, µ)| ≤ Kr ||φ − ψ||.
(x,µ)∈K

Como r < 1/K por (7.5.5) , poniendo α := Kr < 1,

||Bφ − Bψ|| ≤ α ||φ − ψ||.

De este modo

||ϕm − ϕn || = ||Bϕm−1 − Bϕn−1 || ≤ α||ϕm−1 − ϕn−1 ||


≤ α2 ||ϕm−2 − ϕn−2 || ≤ . . . ≤ αn ||ϕm−n − ϕ0 ||,

donde hemos supuesto que m > n (si n > m razonarı́amos igual-


mente). Al ser α < 1, tomando n suficientemente avanzado, αn es
tan pequeño como queramos. Luego, para cualesquiera m, n, con n
suficientemente avanzado (m > n), existirá 0 > 0 tal que:
0
αn < =⇒ ||ϕm − ϕn || < 0.
||ϕm−n − ϕ0 ||

De aquı́ deducimos que {ϕn } es una sucesión de Cauchy por la norma


en F. Como F es completo, ϕn converge a una función ϕ ∈ F. Esta
convergencia es igual a la convergencia uniforme, pues hemos elegido
la norma del supremo para las funciones F. Por lo tanto

lim ϕn (x, µ) = ϕ(x, µ)


n→∞

uniformemente en K. La función ϕ(x, µ) es continua en K por ser


lı́mite uniforme de funciones continuas.

• PASO 5.
La función ϕ(x, µ) es solución de la ecuación diferencial y ! = f (x, y, µ)
para este valor fijo de µ.
En realidad aquı́ no hará falta demostrar nada, pues la afirmación
anterior es consecuencia del teorema del punto fijo (que se comentará
en la sección siguiente), dado que B es una aplicación contractiva20 .
20
Véase el libro de Burkill & Burkill, pág. 52.
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 273

Sin embargo, el demostrar esta cuestión es, en nuestro caso particular,


muy sencillo:

||Bϕ − ϕ|| = ||Bϕ − ϕn+1 + ϕn+1 − ϕ|| ≤ ||Bϕ − ϕn+1 || + ||ϕn+1 − ϕ||
= ||Bϕ − Bϕn || + ||ϕn+1 − ϕ||
≤ α ||ϕ − ϕn || + ||ϕn+1 − ϕ|| → 0.

Esto equivale a decir que para cada 0 > 0,

||Bϕ − ϕ|| < 0 =⇒ ||Bϕ − ϕ|| = 0 =⇒ Bϕ = ϕ.

• PASO 6.
Finalmente démonos cuenta que ya hemos demostrado el teorema,
pues y0 = ϕ(x0 , µ) y ϕ(x, µ) es una función continua de las dos vari-
ables x y µ.

Vamos ahora a demostrar un resultado concerniente a la derivabilidad


de las soluciones con respecto a los parámetros. Con este resultado ter-
minaremos la presente sección, pero para su demostración necesitamos un
lema previo.
Lema 9 (de Hadamard)21 : sea G un dominio del espacio Rn+m convexo
en las n primeras variables22 . Sea F (x1 , . . . , xn , z1 , . . . , zm ) : G → R ad-
mitiendo derivadas parciales continuas respecto a las n primeras variables.
Entonces existen n funciones de 2n + m variables

Φi (x1 , x2 , . . . , xn , y1 , y2 , . . . , yn , z1 , z2 , . . . , zm ), i = 1, 2, . . . , n,

tales que
n
&
F (x1 , . . . , xn , z1 , . . . , zm ) − F (y1 , . . . , yn , z1 , . . . , zm ) = (yi − xi ) Φi .
i=1

Demostración: como G es convexo con respecto a las n primeras variables,


sean "x, "y ∈ G con sus últimas coordenas iguales, es decir, tales que

"x = (x1 , x2 , . . . , xn , z1 , z2 , . . . , zm ), "y = (y1 , y2 , . . . , yn , z1 , z2 , . . . , zm ).


21
Jacques Hadamard (1865–1963), influyente matemático francés.
22
Esto quiere decir que si + y ∈ G y sus m últimas coordenadas coinciden, entonces si
x, +
0 ≤ λ ≤ 1 tenemos que (1 − λ)+ y ∈ G. Dicho de otra manera, el segmento que une
x + λ+
+x e +
y está contenido en G.
274 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Si 0 ≤ t ≤ 1, entonces (1 − t)"x + t "y ∈ G por la convexidad. Para cada valor


de t, este punto tiene como n primeras coordenadas

x1 + t(y1 − x1 ), x2 + t(y2 − x2 ), . . . , xn + t(yn − xn ),

siendo las restantes zp + t(zp − zp ) = zp ; p = 1, 2, . . . , m. Consideremos

F (x1 + t(y1 − x1 ), x2 + t(y2 − x2 ), . . . , xn + t(yn − xn ), z1 , z2 , . . . , zm )

como una función de t cuando las demás variables quedan fijas. Llamemos
Ft a su derivada con respecto a t y Fi , i = 1, 2, . . . , n, a sus derivadas
parciales con respecto a las n primeras variables. Por la regla de la cadena

Ft (x1 + t(y1 − x1 ), x2 + t(y2 − x2 ), . . . , xn + t(yn − xn ), z1 , z2 , . . . , zm )


n
&
= (y1 − xi ) Fi (x1 + t(y1 − x1 ), . . . , xn + t(yn − xn ), z1 , z2 , . . . , zm ).
i=1

Por otro lado, la fórmula de Barrow nos indica que:


1 1
Ft (x1 + t(y1 − x1 ), . . . , xn + t(yn − xn ), z1 , z2 , . . . , zm ) dt
0

= F (y1 , . . . , yn , z1 , . . . , zm ) − F (x1 , . . . , xn , z1 , . . . , zm )
&n 1 1
= (yi − xi ) Fi (x1 + t(y1 − x1 ), . . . , xn + t(yn − xn ), z1 , . . . , zm ),
i=1 0

con lo que eligiendo


1 1
Φi ≡ Fi (x1 + t(y1 − x1 ), . . . , xn + t(yn − xn ), z1 , . . . , zm ),
0

con i = 1, 2, . . . , n, queda probado el lema.


Teorema 7: sea el conjunto de ecuaciones diferenciales y ! = f (x, y, µ) pa-
rametrizado por µ. Supongamos que estamos bajo las mismas condiciones
que en el teorema 6 y que además la derivada parcial ∂f /∂µ existe y es
continua en el dominio Γ. Entonces la solución y = ϕ(x, µ) de la ecuación
diferencial y ! = f (x, y, µ), con µ fijo, pasando por el punto (x0 , y0 ), admite
derivada parcial continua con respecto a µ y verifica la siguiente ecuación
diferencial
$ %
∂ ∂ϕ(x, µ) ∂f ∂ϕ(x, µ) ∂f
= (x, ϕ(x, µ), µ)) + (x, ϕ(x, µ), µ), (7.5.9)
∂x ∂µ ∂x ∂µ ∂µ
7.5. DEPENDENCIA RESPECTO A LOS PARÁMETROS 275

con la condición inicial


∂ϕ(x0 , µ)
= 0.
∂µ
Demostración: sea ϕ(x, µ) la solución de y ! = f (x, y, µ). La función
ϕ(x, µ) es continua respecto a las dos variables de las que depende para
|x − x0 | ≤ r y |µ − µ0 | ≤ ρ, con unos ciertos r y ρ, como consecuencia del
teorema anterior. Definamos ahora:
1
ψ(x, u1 , u2 ) := (ϕ(x, u2 ) − ϕ(x, u1 )). (7.5.10)
u2 − u1
Notemos que esta función está definida cuando u1 != u2 . En caso contrario,
el numerador y el denominador son simultáneamente cero. Veremos luego
lo que sucede en este caso (u1 = u2 ). Puesto que ϕ(x, u) es solución de la
ecuación diferencial con µ = u, tenemos que
! "
∂ 1 ∂ϕ ∂ϕ
ψ(x, u2 , u1 ) = (x, u2 ) − (x, u1 )
∂x u2 − u1 ∂x ∂x
1
= [f (x, ϕ(x, u2 ), u2 ) − f (x, ϕ(x, u1 ), u1 )]. (7.5.11)
u2 − u1
Vamos ahora a aplicar el lema de Hadamard, donde las “n primeras varia-
bles” van a ser x1 = u y x2 = ϕ(x, u), y la única variable z la x. De esta
manera23 , existen dos funciones h1 y h2 continuas en todos sus argumentos
x, u2 , u1 , tales que:
f (x, ϕ(x, u2 ), u2 ) − f (x, ϕ(x, u1 ), u1 )
= h1 (x, ϕ(x, u2 ), ϕ(x, u1 ), u2 , u1 ) (ϕ(x, u2 ) − ϕ(x, u1 ))
+ h2 (x, ϕ(x, u2 ), ϕ(x, u1 ), u2 , u1 ) (u2 − u1 ),
Para abreviar, escribiremos:
g1 (x, u2 , u1 ) := h1 (x, ϕ(x, u2 ), ϕ(x, u1 ), u2 , u1 ),
g2 (x, u2 , u1 ) := h2 (x, ϕ(x, u2 ), ϕ(x, u1 ), u2 , u1 ).
De esta manera, escribiremos la ecuación (7.5.11) como:

ψ(x, u2 , u1 ) = g1 (x, u2 , u1 ) ψ(x, u2 , u1 ) + g2 (x, u2 , u1 ). (7.5.12)
∂x
23
Démonos cuenta que en el lema de Hadamard da igual a lo que llamemos las n
primeras variables, pudiendo ser estas n variables cualesquiera.
276 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Esto representa una ecuación diferencial cuya función incógnita, ψ(x, u2 , u1 ),


satisface la siguiente condición inicial:
1 1
ψ(x0 , u2 , u1 ) = (ϕ(x0 , u2 ) − ϕ(x, u1 )) = (y0 − y0 ) = 0.
u2 − u1 u2 − u1
(7.5.13)
En principio, la función ψ(x, u2 , u1 ), definida en (7.5.10), no está definida
para u2 = u1 . Vamos a ver que ψ(x, u1 , u1 ) tiene realmente sentido. Por el
teorema anterior, aplicado al caso de varios parámetros, la ecuación (7.5.12)
admite solución única pasando por el punto (x0 , y0 ) y esta solución es con-
tinua en x, u1 y u2 a condición de que

|x − x0 | ≤ r, |u1 − µ0 | ≤ ρ y |u2 − µ0 | ≤ ρ.

La solución coincide con ψ(x, u2 , u1 ) para todo valor de u1 y u2 con u1 != u2 .


Parece lógico definir entonces ψ(x, u1 , u1 ) = limu2 →u1 ψ(x, u2 , u1 ), función
que satisface la ecuación (7.5.12) con la condición inicial (7.5.13) y u2 = u1 .
De esta manera poniendo u := u1 tenemos:
ϕ(x0 , u2 ) − ϕ(x, u1 ) ∂ϕ
lim ψ(x, u2 , u1 ) = lim = (x, u1 ) = ψ(x, u1 , u1 ).
u2 →u1 u2 →u1 u2 − u1 ∂u1
(7.5.14)
Como la función ψ(x, u1 , u1 ) es continua en sus dos variables, también lo
es (∂ϕ/∂u1 )(x, u1 ). De paso hemos demostrado su existencia.
Una vez probada la continuidad de la derivada con respecto a µ, vamos
a obtener la ecuación diferencial (7.5.9) que esta derivada satisface. Para
u := u2 = u1 , la ecuación (7.5.12) puede escribirse como:
$ % $ %
∂ ∂ ∂ϕ(x, u) ∂ϕ(x, u)
ψ(x, u, u) = = g1 (x, u, u) + g2 (x, u, u),
∂x ∂x ∂x ∂x
(7.5.15)
por (7.5.14). Aplicando de nuevo el lema de Hadamard para identificar g1
y g2 , tenemos que
∂f ∂f
g1 (x, u, u) = (x, ϕ(x, u), u), g2 (x, u, u) = (x, ϕ(x, u), u), (7.5.16)
∂y ∂u
con lo que finalmente deducimos de (7.5.15) y (7.5.16) la ecuación diferen-
cial pedida (7.5.9).
Nota: obsérvese como el teorema 7 implica una mayor regularidad en la de-
pendencia de las soluciones con respecto a los parámetros que el teorema 6.
7.6. OTROS RESULTADOS SOBRE EXISTENCIA Y UNICIDAD 277

7.6 Otros resultados sobre existencia y unicidad

Con frecuencia las ecuaciones diferenciales pueden aparecer bajo una forma
más general que la considerada anteriormente

F (x, y, y ! ) = 0,

y no pueden ponerse en la forma normal y ! = f (x, y), requerida para aplicar


directamente los teorema de existencia y unicidad que acabamos de de-
mostrar. El siguiente es un resultado válido para las ecuaciones diferen-
ciales de este tipo.
Teorema 8: dada una función F (x, y, y ! ) = 0 existe una única solución
y = y(x) que verifica las condiciones y(x0 ) = y0 , y ! (x0 ) = y0! (donde y0! es
una de las raı́ces de F (x0 , y0 , y0! ) = 0), válida en un entorno suficientemente
pequeño de x0 , si en un entorno del punto (x0 , y0 , y0! ) ∈ R3 la función
F (x, y, y ! ) verifica las tres condiciones siguientes:

a) La función F (x, y, y ! ) es continua en sus tres argumentos.


b) La derivada parcial ∂F/∂y ! existe y es no nula.
c) Existe ∂F/∂y y su valor absoluto está acotado.

La demostración, que hace uso del teorema de la función implı́cita, puede


verse también en el libro de Elsgoltz.
Los puntos (x, y) en los que no se verifica la unicidad de la solución se
llaman puntos singulares y su estudio enlaza con la existencia de envolventes
de familias de curvas, que ya se comentó en el capı́tulo anterior.

7.6.1 Nuevos puntos de vista

Como ya se ha comentado, existen versiones del teorema de existencia y


unicidad que se demuestran usando el teorema del punto fijo 24 , una de
cuyas versiones demostraremos a continuación. Pero antes necesitamos
una definición:
Definición 9: sea (E, d) un espacio métrico, siendo d(x, y) la distancia
definida entre los puntos del espacio x, y ∈ E, y sea T una aplicación de E
24
Existen diversos teoremas del punto fijo, varios de los cuales fueron probados por el
matemático holandés Luitzen Egbertus Jan Brouwer (1881-1966).
278 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

en E. Se dice que la aplicación T es contractiva si ∃ a ∈ (0, 1) tal que


d(T (x), T (y)) ≤ a d(x, y), ∀x, y ∈ E. (7.6.1)
Un primer resultado es:
Proposición 4: toda aplicación contractiva en E es continua en E.
Demostración: es trivial ya que fijado un x0 ∈ E, ∀0 > 0 ∃ δ = 0 tal que
si d(x, x0 ) < δ entonces d(T (x), T (x0 )) < 0. En efecto, la condición de ser
aplicación contractiva nos dice que d(T (x), T (x0 )) ≤ d(x, x0 ) < δ = 0.

Una versión del teorema del punto fijo, suficiente para lo que queremos
demostrar, es la siguiente.
Teorema 9 (del punto fijo): sea (E, d) un espacio métrico completo y
sea T : E → E una aplicación contractiva de constante a. Existe un único
punto fijo de la aplicación T en E, es decir, existe un único x ∈ E tal que
T (x) = x.

Demostración: la prueba de la existencia del punto fijo es constructiva,


es decir, somos capaces de mostar cómo se determina este punto fijo.

a) Demostración de la existencia. Tomemos un x0 ∈ E y consideremos


la sucesión de puntos de E
x0 , x1 = T (x0 ), x2 = T (x1 ) = T 2 (x0 ), . . . , xn = T n (x0 ), . . .
Veamos que esta sucesión es de Cauchy en E. En primer lugar, ob-
servemos que
d(xn , xn+1 ) = d(T (xn−1 ), T (xn )) ≤ a d(xn−1 , xn )
≤ · · · ≤ an d(x0 , x1 ). (7.6.2)
Entonces, aplicando la desigualdad triangular25 , el resultado (7.6.2)
y teniendo en cuenta que 0 < a < 1, tenemos
d(xn , xn+m ) ≤ d(xn , xn+1 ) + d(xn+1 , xn+2 ) + · · · + d(xn+m−1 , xn+m )
an+m − an
≤ (an + · · · + an+m−1 ) d(x0 , x1 ) = d(x0 , x1 )
a−1
an an
= (1 − am ) d(x0 , x1 ) ≤ d(x0 , x1 ) < 0,
1−a 1−a
25
La desigualdad triangular dice que ∀ x, y, z ∈ E, d(x, y) ≤ d(x, z) + d(z, y).
7.6. OTROS RESULTADOS SOBRE EXISTENCIA Y UNICIDAD 279

si, fijado 0, tomamos un n suficientemente grande. Por tanto, {xn } es


una sucesión de Cauchy en E. Como el espacio E es, por hipótesis,
completo, esa sucesión de Cauchy tendrá un lı́mite en el espacio E,
que es el punto fijo x. Usando la continuidad de T (que se sigue de
la Proposición 4), vemos que

T (x) = T ( lim xn ) = lim T (xn ) = lim xn+1 = x. (7.6.3)


n→∞ n→∞ n→∞

b) Demostración de la unicidad del punto fijo: si hubiera dos puntos


fijos x e y tendrı́amos que

d(x, y) = d(T (x), T (y)) ≤ a d(x, y). (7.6.4)

Pero como a < 1, la única posibilidad para que se verifique lo anterior


es que d(x, y) = 0, y como d es una distancia se sigue que x = y.

Usando este teorema que acabamos de demostrar se puede probar el


Teorema 10 (de Picard-Lindelöf )26 : consideremos el sistema de ecua-
ciones diferenciales
d"y
= f"(x, "y ), "y ! (x0 ) = "y0 , x0 ∈ [a, b], (7.6.5)
dx

siendo f" : [a, b] × Rn → Rn una función continua y lipschitziana en las


variables "y en todo su dominio de definición:

||f"(x, "y1 ) − f"(x, "y2 )|| ≤ k||"y1 − "y2 ||, ∀x ∈ [a, b], ∀"y1 , "y2 ∈ Rn . (7.6.6)

Existe entonces una única solución "y (x) que satisface la condición inicial
"y ! (x0 ) = "y0 y está definida en [a, b]. La demostración se efectúa probando
que la aplicación T definida como
1 x
T : "y (x) → (T "y )(x) = "y0 + f"(u, "y (u)) du (7.6.7)
x0

es contractiva y posee, por tanto, un punto fijo que será la única solución
del problema. (Observación: si n = 1 en lugar de un sistema tenemos
simplemente una ecuación.)
26
Ernst Leonard Lindelöf (1870–1946), matemático finlandés.
280 CAPÍTULO 7. TEOREMAS DE EXISTENCIA Y DEPENDENCIA

Existen gran variedad de resultados diferentes de los comentados en las


hipótesis y en las restricciones que se imponen a la función f". Aunque los
expuestos no son los más potentes, sı́ son lo suficientemente generales y son
bastante sencillos para que puedan ser aplicados en la mayor parte de las
ocasiones.

Ejemplo 5: consideremos la ecuación diferencial y ! = x + y. Apliquemos


el método de Picard para hallar la solución que verifica y(x = 0) = 0. Se
trata de una ecuación lineal muy simple, cuya solución general se puede
hallar con facilidad, y es y(x) = C ex − x − 1; la solución particular con la
condición inicial especificada es y(x) = ex − x − 1. Veamos que se obtiene
al aplicar el método de Picard; en este caso f (x, y) = x + y, de modo que
la sucesión de funciones que tiende hacia la solución buscada se obtendrá
a partir de
1 x
y(x) = (u + y(u)) du,
0

en concreto
1 x
x2
y1 (x) = (u + 0) du = ;
0 2
1 x
u2 x2 x3
y2 (x) = (u + ) du = + ;
0 2 2 2·3
1 x
u2 u3 x2 x3 x4
y3 (x) = (u + + ) du = + + ;
0 2 3! 2! 3! 4!
... ... ... ...
1 x
u2 un x2 x3 xn+1
yn (x) = (u + + ··· + ) du = + + ··· .
0 2 n! 2! 3! (n + 1)!

En el lı́mite obtenemos obviamente:

x2 x3 xn
y(x) = lim yn (x) = + + ··· + · · · = ex − 1 − x,
n→∞ 2! 3! n!

que es precisamente la solución particular hallada anteriormente. Con este


ejemplo se ha pretendido mostrar que en determinadas ocasiones la apli-
cación directa del método de Picard permite hallar la solución del problema
que se está estudiando.
7.7. BIBLIOGRAFÍA 281

7.7 Bibliografı́a
1. Burkill, J. C., and Burkill, H., A Second Course in Mathematical Analysis,
Cambridge University Press, 1970.
2. Coddington, E.A., and y Levinson, N., Theory of Ordinary Differential
Equations, TMH, 1985.
3. Elsgoltz, L., Ecuaciones diferenciales y cálculo variacional , MIR, 1969.
4. Ince, E.L., Ordinary Differential Equations, Dover, 1956.
5. Novo, S., Obaya, R. y Rojo, J., Ecuaciones y sistemas diferenciales, Edito-
rial AC, 1992.
6. Pérez-Gómez, A., Apuntes de Ecuaciones diferenciales, Valladolid 1968 (no
publicados).
Capı́tulo 8

SISTEMAS Y
ECUACIONES
DIFERENCIALES
LINEALES

8.1 Introducción

Tras haber estudiado las ecuaciones diferenciales de primer orden, vamos


ahora a proceder al análisis de los sistemas de n ecuaciones diferenciales
lineales de primer orden, y también de las ecuaciones diferenciales lineales
de orden n. En un capı́tulo posterior analizaremos los sistemas no linea-
les. Aunque unos y otros aparecen con mucha frecuencia en los problemas
que aparecen al estudiar diversos sistemas mecánicos, eléctricos, biológicos,
etc., son sobre todo los lineales los que se utilizan de forma rutinaria en
las aplicaciones cientı́ficas. Podrı́amos preguntarnos por qué aparecen tan
frecuentemente; el motivo es, esencialmente, que al plantear un problema
se suelen hacer un cierto número de simplificaciones de manera que éste
sea abordable (pero no se pueden hacer demasiadas, o de lo contrario la
solución no tendrá mucho que ver con la “realidad”). Pues bien, en la
mayor parte de los casos, las simplificaciones que se efectúan tienden a li-
nealizar el problema, es decir, se procede de modo tal que las ecuaciones
que describen el sistema que se estudia sean lineales (y esto se hace porque

283
284 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

la solución de estos sistemas o ecuaciones lineales es relativamente sencilla,


ya que se requiere únicamente la aplicación de técnicas de álgebra lineal).
La notación habitual para el estudio de estos sistemas, y que nosotros
adoptaremos también, consiste en denominar t a la variable independien-
te (que en muchas aplicaciones será precisamente una variable tempo-
ral) y xk (t) a las funciones incógnitas. Además, denotaremos con letras
mayúsculas en negrita a las matrices y para los vectores usaremos la no-
tación "v .

8.2 Sistemas lineales homogéneos

Consideremos un conjunto de n funciones de la variable real t

x1 (t), x2 (t), . . . , xn (t)

que satisfacen un sistema de ecuaciones diferenciales del siguiente tipo

x!1 (t) = a11 (t) x1 (t) + a12 (t) x2 (t) + · · · + a1n (t) xn (t),
x!2 (t) = a21 (t) x1 (t) + a22 (t) x2 (t) + · · · + a2n (t) xn (t), (8.2.1)
.. .. ..
. . .
x!n (t) = an1 (t) x1 (t) + an2 (t) x2 (t) + · · · + ann (t) xn (t),

donde la prima significa derivación con respecto a la variable t. Las fun-


ciones aij (t) se suponen conocidas, y nuestro problema es obtener las n
funciones xi (t). Vamos a admitir que todas estas funciones son reales de
variable real. Un estudio similar puede hacerse en el caso de que las fun-
ciones, tanto datos como incógnitas, fueran complejas de variable real t,
siendo sus resultados totalmente análogos. Trabajamos en el caso real so-
lamente por simplicidad en la notación.
El sistema de ecuaciones (8.2.1) puede escribirse más elegantemente en
forma vectorial. Ası́, si "x(t) es el vector columna cuyas componentes son las
funciones incógnita xi (t), escritas en orden correlativo y A(t) es la matriz
n × n cuyos elementos vienen dados por aij (t), el sistema (8.2.1) se puede
escribir en forma compacta como

"x ! (t) = A(t) "x(t), (8.2.2)


8.2. SISTEMAS LINEALES HOMOGÉNEOS 285

o más explı́citamente:
 !    
x1 (t) a11 (t) · · · a1n (t) x1 (t)
 ..   .. .. ..   .. 
 . = . . .  . . (8.2.3)
xn (t)
! an1 (t) · · · ann (t) xn (t)

Recordemos que, por definición, la derivada con respecto a t de una matriz


cuyos elementos son funciones derivables de t es la matriz que se obtiene
derivando los elementos de matriz.
A un sistema de ecuaciones diferenciales como el dado por (8.2.1), (8.2.2)
u (8.2.3) se le denomina lineal homogéneo. Una forma aún más general de
un sistema homogéneo es H(t) "x ! (t) = A(t) "x(t). Si la matriz H(t) es inver-
tible se reduce al caso (8.2.2). Si la matriz H(t) no es invertible, entonces
las n variables de "x(t) no son independientes y existen ligaduras algebraicas
entre ellas, como se muestra a continuación con un ejemplo.

Ejemplo 1: consideremos el siguiente sistema de coeficientes variables


H(t) "x ! (t) = A(t) "x(t), en el cual det H(t) = 0:
$ %$ ! % $ %$ %
t 1 x1 0 t x1
= .
t2 t x!2 t 1 x2

En forma desarrollada:

tx!1 + x!2 = tx2 ; t2 x!1 + tx!2 = tx1 + x2 .

Multiplicando la primera ecuación por t y restándole la segunda, resulta


que
t2 x2 = tx1 + x2 ⇒ x1 = (t − 1/t)x2 ,
y vemos que las dos variables x1 y x2 no son independientes. Eliminando
la variable x1 de cualquiera de las dos ecuaciones diferenciales de partida,
encontramos la solución para x2 , que a su vez nos permite obtener x1 . Los
resultados finales son los siguientes
2 2)
x1 = C (t − 1/t) e1/(2t ) , x2 = C e1/(2t

Como vemos, aparece una única constante de integración.

Volviendo al sistema homogéneo en cualquiera de sus formas (8.2.1),


"
(8.2.2) u (8.2.3), notemos que si ψ(t) "
y φ(t) son dos soluciones del mismo,
286 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

cualquier combinación lineal de ellas es también una solución. Por tanto,


el conjunto de las soluciones del sistema (8.2.1), cuando existan, forman un
espacio vectorial.
Ofrecemos a continuación un teorema de existencia y unicidad de las
soluciones de un sistema como el que estamos considerando1 .

Teorema 1: si todas las funciones aij (t) del sistema (8.2.1) están definidas
y son continuas en un cierto intervalo I ⊂ R, entonces, dados τ ∈ I y un
vector ξ" T = (a1 , a2 , . . . , an ) ∈ Rn (aquı́ ξ" T = (ξ1 , ξ2 , . . . , ξn ) es el vector fila
que se obtiene por transposición del vector columna ξ" ), existe una única
solución "x(t) del sistema definida en todo el intervalo I y tal que "x(τ ) = ξ. "
El teorema tiene dos consecuencias inmediatas:

i) Si una solución "x(t) del sistema verifica "x(t0 ) = "0 para un cierto
t0 ∈ I, entonces "x(t) es igual a "0 para todo valor de t. El motivo es
que la solución "x(t) coincide con la solución idénticamente nula del
sistema para t = t0 , y por el teorema anterior deben de coincidir.

ii) Si dos soluciones "x1 (t) y "x2 (t) coinciden en un cierto t0 ∈ I, han de
coincidir en todo I. En efecto, la diferencia "x1 (t) − "x2 (t) es solución
del sistema y se anula en t0 , de modo que por el comentario precedente
ha de ser "x1 (t) − "x2 (t) = "0, ∀t ∈ I.

Proposición 1: si aij ∈ C 0 (I), i, j = 1, . . . n, el conjunto de las soluciones


del sistema (8.2.1) forma un espacio vectorial de dimensión n.
Demostración. Ya se indicó que el conjunto de soluciones forma un es-
pacio vectorial (real). Vamos a probar que su dimensión es exactamente
n.

a) Probemos en primer lugar que hay al menos n soluciones linealmente


independientes. Para ello, escojamos en Rn , n vectores linealmente
independientes: ξ"1 , ξ"2 , . . . , ξ"n , y tomemos τ ∈ I. Por el teorema 1
sabemos que existen n soluciones del sistema, φ " 1 (t), φ
" 2 (t), . . . , φ
" n (t),
" " " " " "
tales que φ1 (τ ) = ξ1 , φ2 (τ ) = ξ2 , . . . , φn (τ ) = ξn . Veamos que estas
1
Su demostración puede estudiarse en el libro de Coddington y Levinson citado en la
bibliografı́a. Como se comenta en la sección 7.6, el teorema es una consecuencia directa
del teorema de Picard-Lindelöf, presentado al final del capı́tulo anterior
8.2. SISTEMAS LINEALES HOMOGÉNEOS 287

soluciones son linealmente independientes: si existiera una combi-


nación lineal del tipo
n
&
" k (t) = "0,
ck φ ∀ t ∈ I,
k=1

S
pondrı́amos t = τ , quedando nk=1 ck ξ"k = "0. Como, por hipótesis,
los vectores ξ"i son linealmente independientes, resulta que

c1 = c2 = . . . cn = 0,

probando la independencia lineal de las soluciones.

b) El espacio de soluciones tiene, al menos, dimensión n. Mostremos


que esta dimensión es exactamente igual a n. Sea ψ(t) " una solución
arbitraria de (8.2.1). Su valor en el punto τ es igual a ψ(τ " ). Este es
un vector de Rn , y por lo tanto podremos ponerle como combinación
lineal de los vectores de una base de Rn . Pero una base de este tipo
es la formada por los vectores ξ"1 , ξ"2 , . . . , ξ"n . Por lo tanto, podremos
escribir:

" ) = λ1 ξ"1 + λ2 ξ"2 + · · · + λn ξ"n = λ1 φ


ψ(τ " 1 (τ ) + λ2 φ
" 2 (τ ) + · · · + λn φ
" n (τ ).

Consideremos ahora la función λ1 φ" 1 (t) + λ2 φ


" 2 (t) + · · · + λn φ
" n (t), que
es una combinación lineal de soluciones y, por tanto, es una solución.
"
Coincide con ψ(t) en el punto t = τ , de modo que ambas soluciones
deben de coincidir en I. Es decir,

ψ(t) " 1 (t) + λ2 φ


" = λ1 φ " 2 (t) + · · · + λn φ
" n (t) ∀ t ∈ I.

Vemos que cualquier solución puede ponerse como combinación lineal


de las mismas n soluciones. De aquı́ que sea justamente n la dimensión
del espacio2 .

Definición 1: diremos que una matriz Φ(t) de dimensiones n × n es una


matriz solución de (8.2.1) si cada una de sus columnas es un vector solución
2
Es interesante darse cuenta que esta demostración se generaliza de manera inmediata
al caso complejo. Insistimos que ello sucede con todos los resultados del presente capı́tulo.
288 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

del sistema (8.2.1). Como sus columnas verifican el sistema, ella habrá de
verificar la ecuación del mismo en forma matricial, es decir:

Φ! (t) = A(t) Φ(t), t ∈ I. (8.2.4)

Proposición 2: si existe un punto de I para el cual el determinante de


Φ(t) es distinto de cero, entonces este determinante es distinto de cero para
todo valor de t ∈ I. Recı́procamente, si este determinante se anula en un
punto, se anula para todo t ∈ I.
Demostración. Si el determinante se anula en un punto, eso significa que,
en ese punto, una de las columnas es una combinación lineal de las demás.
Como las columnas de esta matriz son soluciones del sistema, resulta que
esta combinación lineal se mantendrá para todo valor de t ∈ I. De aquı́
que el determinante sea siempre cero, ya que sus columnas son linealmente
dependientes.
Supongamos ahora que el determinante es distinto de cero en un punto
t0 ∈ I. Si fuese igual a cero en otro punto t! ∈ I, eso significarı́a que serı́a
igual a cero en todos los puntos del intervalo I, y en particular en t0 . Por
lo tanto, ha de ser distinto de cero en todos los puntos de I.

Definición 2: diremos que una matriz solución es una matriz fundamental


cuando su determinante es distinto de cero. Es evidente que una matriz
fundamental es una matriz n×n cuyas columnas son soluciones linealmente
independientes del sistema (8.2.1).

Proposición 3: si C es una matriz constante e invertible (det C != 0)


n×n y Φ(t) es una matriz fundamental del sistema (8.2.1), entonces Φ(t)C
es también una matriz fundamental del sistema. Si Φ1 (t) y Φ2 (t) son
matrices fundamentales, existe una matriz constante e invertible C tal que
Φ2 = Φ1 C.
Demostración. Si Φ(t) una matriz fundamental, satisface la ecuación
(8.2.4), que multiplicada por la derecha por C resulta

(Φ(t)C)! = Φ! (t)C = A(t)(Φ(t)C),

por lo cual Φ(t)C es una matriz solución. Pero

det(Φ(t)C) = det(Φ(t)) det C != 0,


8.3. SISTEMAS LINEALES NO HOMOGÉNEOS 289

y por consiguiente Φ(t)C es una matriz fundamental.


La segunda parte de esta Proposición se demuestra como sigue: sean
Φ1 (t) y Φ2 (t) dos matrices fundamentales y sea Ψ(t) = Φ−1 1 (t)Φ2 (t), es
decir, Φ2 (t) = Φ1 (t)Ψ(t). Derivando esta última igualdad con respecto a
t, se obtiene: Φ!2 (t) = Φ!1 (t)Ψ(t) + Φ1 (t)Ψ! (t), de donde

Φ!2 (t) = A(t)Φ2 (t) = A(t)Φ1 (t)Ψ(t) + Φ1 (t)Ψ! (t)

= A(t)Φ2 (t) + Φ1 (t)Ψ! (t), (8.2.5)

es decir, Φ1 (t)Ψ! (t) = O, la matriz idénticamente nula, lo que implica


Ψ! (t) = O, ya que Φ1 (t) es invertible, con lo cual resulta Ψ(t) = C, matriz
constante e invertible por ser C = Ψ(t) = Φ−1 1 (t)Φ2 (t).

8.3 Sistemas lineales no homogéneos

Consideremos ahora el siguiente sistema de n ecuaciones diferenciales:

x!1 (t) = a11 (t) x1 (t) + a12 (t) x2 (t) + · · · + a1n (t) xn (t) + b1 (t),
x!2 (t) = a21 (t) x1 (t) + a22 (t) x2 (t) + · · · + a2n (t) xn (t) + b2 (t),
··· ··· ···
x!n (t) = an1 (t) x1 (t) + an2 (t) x2 (t) + · · · + ann (t) xn (t) + bn (t),

donde tanto las funciones aij (t) como las bi (t) son conocidas y están defi-
nidas en un cierto intervalo I ⊂ R. Le llamaremos un sistema lineal no
homogéneo y puede ser escrito también en forma vectorial:

"x ! (t) = A(t)"x(t) + "b(t), (8.3.1)

donde "b es el vector columna cuyas componentes son las funciones bi (t).
Para este tipo de sistemas también puede probarse el siguiente teorema de
existencia y unicidad (que no demostraremos).

Teorema 2: consideremos el sistema (8.3.1) y supongamos que tanto las


funciones aij (t) como las bi (t) son todas ellas continuas en un cierto inter-
valo I. Entonces, fijados τ ∈ I y ξ" ∈ Rn , existe una única solución "x(t) al
"
sistema tal que "x(τ ) = ξ.
290 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Proposición 4: sea Φ(t) una matriz fundamental del sistema lineal ho-
" h (t) una solución del mismo verificando
mogéneo "x ! (t) = A(t) "x(t) y sea φ
" " "
la condición inicial φh (τ ) = ξ. La solución φ(t) del sistema lineal no ho-
mogéneo "x (t) = A(t)"x(t) + "b(t) verificando φ(τ
! " ) = ξ" es:
1 t
" "
φ(t) = φh (t) + Φ(t) Φ−1 (s) "b(s) ds. (8.3.2)
τ

L
Demostración. En primer lugar veamos que ψ(t) " = Φ(t) t Φ−1 (s)"b(s) ds
τ
es la solución del sistema no homogéneo que cumple ψ(τ " ) = "0. Para ello
"
derivemos esta ψ(t):
1 t
" ! −1 "
ψ (t) = Φ(t) {Φ (t) b(t)} + Φ(t) !
Φ−1 (s) "b(s) ds
τ
1 t
= "b(t) + A(t) Φ(t) Φ−1 (s) "b(s) ds = "b(t) + A(t) ψ(t).
"
τ

"
Luego ψ(t) es una solución. Tomando t = τ resulta
1 τ
" ) = Φ(t)
ψ(τ Φ−1 (s)"b(s) ds = "0.
τ

Por tanto se comprueba inmediatamente que φ(t) " = φ "


" h (t) + ψ(t) es una
solución del sistema lineal no homogéneo que satisface la condición inicial
pedida.
Para los sistemas lineales arbitrarios (con coeficientes variables en gene-
ral) poco más se puede decir. Existe un tipo particular de sistemas lineales
muy importante que son aquellos que tienen los coeficientes constantes,
y vamos a centrarnos en ellos a continuación. Pero antes de comenzar
su estudio detallado vamos a repasar brevemente algunos resultados sobre
formas canónicas de matrices.

8.4 Teorema de Jordan

Vamos a exponer a continuación un resultado muy importante de álgebra


lineal, conocido con el nombre de teorema de Jordan3 , que tiene aplicación
3
Marie Ennemond Camille Jordan (1838–1922), matemático francés conocido por sus
trabajos en análisis y teorı́a de grupos.
8.4. TEOREMA DE JORDAN 291

en multitud de situaciones, y veremos que desempeña un papel importante


al resolver los sistemas de ecuaciones lineales. Nosotros no ofreceremos
aquı́ la prueba de este teorema, pero para ver una demostración pueden
consultarse algunos de los libros indicados en la bibliografı́a.
Definición 3: sean A y B dos matrices n × n complejas. Diremos que son
similares o semejantes si existe una matriz S invertible tal que

A = S−1 B S. (8.4.1)

La relación de semejanza entre matrices es una relación de equivalencia.


Teorema 3 (de Jordan): toda matriz n × n compleja A es similar a una
matriz de la forma
   
J1 λi 1
 . 
λi . .
 J2   
   ,
J= .  , donde Ji =  . (8.4.2)
 . .  . 
 . 1 
Jp λi

siendo Ji matrices de dimensión ni ×ni y λi los autovalores o valores propios


de J. Los elementos de matriz que no aparecen son nulos. Obviamente

n = n1 + n2 + · · · + np .

Llamaremos a la matriz J la forma canónica de Jordan de la matriz A.


Las matrices Ji son llamadas las cajas o bloques de Jordan de esta forma
conónica. Un autovalor λi puede aparecer en una o varias cajas. Llamare-
mos multiplicidad de un autovalor λi al número de veces que aparezca en la
forma de Jordan. Una matriz es diagonalizable si y sólo si todas sus cajas
tienen dimensión uno. En particular, toda matriz simétrica real es diago-
nalizable y sus autovalores son reales (la matriz S en este caso es ortogonal,
es decir, verifica S ST = I, donde ST es la traspuesta de la matriz S, e I
es la matriz identidad). Es muy sencillo verificar las siguientes relaciones
para el determinante y la traza de la matriz:
p
# p
&
det A = (λi )
mi
= det J ; tr A = mi λi = tr J, (8.4.3)
i=1 i=1

donde mi es la multiplicidad del autovalor λi .


292 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

La estructura de cada una de las cajas es Ji = λi Ii + Ni , donde


 
  0 0 1
0 1  .. .. .. 
 .. ..  
 . . . 

 . .   .. .. 
Ni = 
 ..
,
 N2i =  . . 1  , etc.
 . 1   
 .. 
0  . 0 
0
(8.4.4)
Vemos que la matriz Ji , de dimensiones ni × ni , es la suma del autovalor λi
por la matriz identidad ni × ni más esta matriz Ni , que tiene la propiedad
llamada nilpotencia: existe un natural k tal que Nki es la matriz nula. Si
convenimos en que el grado de nilpotencia de una matriz es el mı́nimo nú-
mero natural tal que, elevada la matriz a este número, se anula, resultará
entonces que el grado de nilpotencia de Ni es justamente ni , es decir, su
dimensión. También concluimos que la propia matriz de Jordan J admite
una descomposición como suma de una matriz diagonal y otra nilpotente.
El grado de nilpotencia de esta última coincide con la dimensión de la mayor
de las cajas.
Vamos ahora a trabajar con una idea que es esencial en el estudio de
los sistemas lineales de coeficientes constantes. Este tipo de sistemas son
los únicos que pueden resolverse completamente en todos los casos, y por
eso merecen una atención especial.

Definición 4: sea A una matriz n × n, se define su exponencial mediante


la siguiente fórmula:


& ∞
&
Am Am
eA = I + ≡ , (8.4.5)
m! m!
m=1 m=0

donde la serie converge en el sentido de la norma de las matrices, que


pasamos a comentar.

Ejemplo 2: en algunas ocasiones se puede calcular la exponencial de forma


sencilla; sea
$ % $ %
0 2 2 0
A= ; A =
2
= 2I; A3 = 2A; A4 = 22 I; . . .
1 0 0 2
8.4. TEOREMA DE JORDAN 293

Por tanto se tiene para la serie de la exponencial de A:


9 √ :
2 2 22 22 √ sinh 2
eA = I + A + I + A + I + A + · · · = (cosh 2)I + √ A,
2! 3! 4! 5! 2

es decir  √ √ √ 
cosh 2 2 sinh 2
eA =  √ √ .
sinh
√ 2
2
cosh 2

El conjunto de las matrices complejas n × n forman un espacio vectorial


complejo de dimensión n2 . Lo mismo sucede si las matrices son reales; en
este caso el espacio vectorial de las matrices n × n es real de dimensión
n2 . En este espacio vectorial todas las normas son equivalentes en el sen-
tido de que nos proporcionan la misma topologı́a. Entonces, en principio,
podrı́amos escoger cualquiera de ellas. Por razones que luego se compren-
derán fácilmente, nos interesa elegir una norma que verifique la propiedad
||A B|| ≤ ||A|| ||B||, cosa que no todas las normas satisfacen. Sı́ la cumple
la siguiente:
||A|| = sup ||A "x||. (8.4.6)
||*
x||=1

Ahora vamos a demostrar el siguiente resultado:

Proposición 5: la serie dada en (8.4.5) es convergente en el espacio vec-


torial de las matrices (en el cual la suma de matrices y el producto por
escalares se define de la manera usual).

Demostración. Para probarlo consideremos la siguiente sucesión:

N
& An
SN = .
n!
n=0

Si consiguiéramos demostrar que es una sucesión de Cauchy en el espacio


de las matrices, puesto que dicho espacio es normado de dimensión finita (y
por lo tanto completo), entonces habrı́amos demostrado que que la sucesión
de las SN tiene un lı́mite dentro del espacio. Este lı́mite será una matriz
n × n que llamaremos exponencial de A, por analogı́a con los números
complejos. Veamos que la sucesión SN es en efecto de Cauchy. Sea 0 > 0 y
294 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

sean M > N suficientemente avanzados:


22 22
22&M
An & An 2222
N M
& ||An ||
M
& ||A||n
22
||SM − SN || = 22 − 22 ≤ ≤ < 0.
22 n! n! 22 n! n!
n=0 n=0 n=N +1 n=N +1
(8.4.7)
La primera de estas desigualdades es consecuencia de la desigualdad trian-
gular de las normas. La segunda lo es de que hemos escogido una norma
verificando la propiedad ||A B|| ≤ ||A|| ||B||. La última suma en (8.4.7) es
el resto de la exponencial e||A|| , cuyo desarrollo en serie conocemos bien.
Proposición 6: si las matrices A y B son similares, sus respectivas expo-
nenciales también lo son.
En efecto, si A = S−1 B S:

& ∞
&
(S−1 B S)n −1 Bn
e =
A
=S S = S−1 eB S. (8.4.8)
n! n!
n=0 n=0

Nótese que el producto S−1 B S S−1 B S · · · S−1 B S con n veces el mismo


factor S−1 B S es igual a S−1 Bn S. Además, de (8.4.8) se sigue un resultado
bastante útil que probaremos a continuación.
La propiedad que acabamos de demostrar es fundamental para hallar
la exponencial de matrices no triviales, ya que para las matrices en forma
de Jordan el cálculo de la exponencial es mucho más sencillo. Veamos a
continuación un ejemplo de lo que acabamos de comentar.

Ejemplo 3: vamos a determinar la exponencial de la matriz A del Ejemplo


2 usando la Proposición 6 (en este caso los cálculos van a ser más compli-
cados que los efectuados en el mencionado ejemplo, pero el procedimiento
que vamos a usar es válido en general, mientras que no siempre es posible
evaluar de forma directa la exponencial). En primer lugar determinamos
la forma de Jordan de A, calculando sus autovalores:
2 2
2 −λ 2 2 √
2 2
2 1 −λ 2 = 0 ⇒ λ = ± 2.

Como aparecen dos autovalores diferentes, la matriz será diagonalizable.


Calculamos los vectores propios asociados a cada valor propio, y resulta lo
siguiente
$ % $ %
√ 2 √ 2
λ+ = + 2 : "v+ = √ , λ− = − 2 : "v− = √ .
2 − 2
8.4. TEOREMA DE JORDAN 295

Con estos vectores propios formamos la matriz invertible P que nos sirve
para establecer semejanza:
$ % $ √ %
2 2 −1 1 2 2
P= √ √ , P = √ √ .
2 − 2 4 2 2 −2
Se comprueba fácilmente que el producto P−1 AP nos da la forma de Jordan
de la matriz A, que en este caso es puramente diagonal y llamaremos D:
$ √ %
2 0
D= √ .
0 − 2
Por tanto, usando (8.4.8) se llega a que
$ % 9 √2 :$ √ %
1 2 2 0
e =Pe P = √
A D −1 √ √ e √ √2 2 ,
4 2 2 − 2 0 e− 2 2 −2

y efectuando los productos de estas matrices se obtiene el mismo resultado


que en el Ejemplo 2.

Proposición 7: se verifica que det eA = etr A .


Demostración.
a) Supongamos primero que la matriz A esté escrita en su forma canónica
de Jordan J. Entonces
     2 
I1 J1 J1
 ..   ..  1  .. 
eJ =  . + . +  .  + ···
2!
Ip Jp Jp
2

 
I1 + J1 + 12 J21 + . . .

=  .. 
. 
Ip + Jp + 12 J2p + . . .
 
eJ1

=  .. 
. .
eJp
Calculemos ahora las exponenciales en cada una de las cajas, teniendo en
cuenta que Ji = λi Ii + Ni , y que las matrices Ii , Ni conmutan:
eJi = eλi Ii +Ni = eλi Ii eNi ;
296 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

1 2 1
eλi Ii = Ii + λi Ii + λi Ii + · · · + λni Ii + · · · = eλi Ii ;
2! n!
1 1
eNi = Ii + Ni + N2i + · · · + Nni −1 .
2! (ni − 1)! i

De esto se sigue que eJi es una matriz triangular del siguiente tipo:
 1 λi 1 
eλi eλi 2! e ... (ni −1)! eλi
 
 0 eλi eλi ... 1
(ni −2)!eλi 
 .
 ... ... ... ... ... 
 
0 0 0 ... eλi

Con estas cajas calculamos la matriz eJ . Por todo lo comentado, vemos que
se trata de una matriz triangular superior, cuyos elementos en la diagonal
principal son exactamente

eλ1 , .n.1., eλ1 , . . . , eλp , .n.p., eλp ,

cuyo producto es exactamente etr J .


b) Si A no estuviera escrita en forma de Jordan, sabemos que debe de
existir una matriz S tal que A = S−1 JS. Entonces

det eA = det eJ = etr J = etr A ,

pues, al ser la traza invariante frente a la permutación circular de sus ar-


gumentos4 , se tiene que tr A = tr {S−1 JS} = tr {S S−1 J} = tr J.

8.5 Sistemas lineales de coeficientes constantes

Vamos a estudiar ahora los sistemas lineales, homogéneos o no, para los
cuales la matriz A es independiente de t. Para el caso homogéneo, el teo-
rema de existencia y unicidad nos asegura que, en este caso, las soluciones
están definidas para todo valor t ∈ R. Estudiaremos separadamente las dos
situaciones.
4
Es decir: tr {A1 A2 · · · An } = tr {An A1 A2 · · · An−1 } = tr {An−1 An A1 A2 · · · An−2 },
etc.
8.5. SISTEMAS LINEALES DE COEFICIENTES CONSTANTES 297

8.5.1 Caso homogéneo: "x! (t) = A "x(t)

Teorema 4: en el caso de un sistema homogéneo de coeficientes constantes,


una matriz fundamental del sistema viene dada por Φ(t) = et A para todo
"
t ∈ R. La solución φ(t) " ) = ξ"
de (8.2.1) verificando la condición inicial φ(τ
es
" = e(t−τ ) A ξ.
φ(t) " (8.5.1)

Demostración.
a) Probemos en primer lugar que et A es realmente una matriz solución del
sistema. Para ello es preciso comprobar que

d tA
e = A et A = et A A.
dt

Como A y B son dos matrices que conmutan, se verifica5 :

eA+B = eA eB .

Es evidente que las matrices t A y τ A conmutan, de modo que

e(t+τ ) A − et A eτ A − I eτ A − I t A
= etA = e .
τ τ τ

Tomando lı́mites en ambos miembros y usando la definición de derivada:


/ 0 / 0
d tA eτ A − I eτ A − I
e = et A lim = lim et A ,
dt τ →0 τ τ →0 τ

pudiendo conjeturar que


/ 0
eτ A − I
lim = A. (8.5.2)
τ →0 τ

Demostrar (8.5.2) no es complicado. Recordemos que todo lı́mite en el


espacio vectorial de las matrices cuadradas n × n debe de tomarse con res-
pecto a la topologı́a generada por cualquiera de sus normas. Usaremos aquı́
la norma (8.4.6) por poseer la propiedad adicional que hemos comentado.
5
Téngase en cuenta que, en general, eA+B %= eA eB .
298 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Escribamos
22 τ A 22 2222 ∞ k k 2222 ∞
22 e − I 22 22 1 & A τ 22 1 & ||Ak || |τ |k
22 − A 22 = 22 2 2 ≤
22 τ 22 22 τ k! 22 |τ | k!
k=2 k=2

1 ; ||A|| |τ | <

&
1 ||A||k |τ |k
≤ = e − 1 − ||A|| |τ |
|τ | k! |τ |
k=2

e||A|| |τ | − 1 τ →0
= − ||A|| −→ 0,
|τ |

lo cual prueba (8.5.2). De esta manera resulta que et A es una matriz


solución, ya que satisface la ecuación del sistema.
b) Veamos a continuación que et A es también una matriz fundamental.
Para ello calculemos su determinante: det et A = et tr A != 0. Ahora pode-
mos probar fácilmente que (8.5.1) es una solución del sistema: para ello
derivemos (8.5.1) teniendo en cuenta que para derivar productos de ma-
trices procedemos como con el producto ordinario de funciones. De esta
manera:
" ! (t) = A e(t−τ ) A ξ" = A φ(t).
φ "

Queda por demostrar que (8.5.1) satisface la condición inicial, lo cual es


" ) = e0 ξ" = I ξ" = ξ.
trivial, ya que: φ(τ "

Ejemplo 4: en relación con los Ejemplos 2 y 3, vamos a hallar la solución


general del sistema
$ %
! 0 2
"x (t) = A "x(t), con A= .
1 0

Ya hemos comentado que la solución viene dada en términos de la expo-


nencial de la matriz A, evaluada anteriormente, de modo que
 √ √ √  
cosh 2 t 2 sinh 2 t C1
"x(t) = etA ξ" =  √ √  ,
sinh

2
2 t
cosh 2 t C2

siendo C1 y C2 dos constantes arbitrarias, que pueden determinarse si se


fijan unas condiciones iniciales para el problema.
8.6. ECUACIONES LINEALES HOMOGÉNEAS DE ORDEN N 299

8.5.2 Caso no homogéneo: "x! (t) = A "x(t) + "b(t)

Las soluciones de este sistema existirán en el intervalo I de continuidad


de las componentes del vector "b(t). La solución del sistema que cumple la
" ) = ξ" será, según (8.3.2):
condición inicial φ(τ
1 t 1 t
"
φ(t) = e (t−τ )A "
ξ+e tA
e−sA "
b(s) ds = e(t−τ )A "
ξ+ e(t−s)A"b(s) ds.
τ τ

Tanto en el caso homogéneo como en el no homogéneo, lo que hay que


hacer es, esencialmente, evaluar la exponencial de la matriz A. Para hacer
esto se recurre, como ya se ha comentado, a la Proposición 6 (8.4.8) y se
calcula la exponencial de la forma de Jordan J asociada a la matriz, tal
como se hizo en la demostración de la Proposición 7. Este procedimiento
casi siempre es mucho más fácil que el cálculo directo de la exponencial
de A, pero requiere, eso sı́, calcular previamente la forma de Jordan de la
matriz con la que trabajamos.

8.6 Ecuaciones lineales homogéneas de orden n

Sean ai (t), a2 (t), . . . , an (t), n funciones definidas y continuas en un inter-


valo I de la recta real. Vamos a suponer que estas funciones son reales,
aunque la generalización al campo complejo no conlleva problema alguno.
Consideremos ahora la siguiente ecuación diferencial:
dn dn−1
n
y(t) + a1 (t) n−1 y(t) + · · · + an (t) y(t) = 0. (8.6.1)
dt dt
A veces se representa esta ecuación diferencial que verifica y(t) como la
acción del operador diferencial
dn dn−1
Ln = + a 1 (t) + · · · + an (t) = 0
dtn dtn−1
sobre la función: Ln y(t) = 0. La anterior es una ecuación lineal homogénea
y de orden n. Tiene la interesante propiedad de que cualquier combinación
lineal de soluciones es también una solución, por consiguiente, el conjunto
de sus soluciones forma un espacio vectorial.
Vamos a asociar a la ecuación diferencial (8.6.1) un sistema lineal ho-
mogéneo de orden n. Para ello definamos las siguientes funciones:
x1 (t) = y(t), x2 (t) = y ! (t), . . . , xn (t) = y (n−1) (t).
300 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Al derivarlas obtenemos el siguiente sistema lineal de ecuaciones diferen-


ciales de primer orden:

x!1 (t) = x2 (t),


x!2 (t) = x3 (t),
... ...
x!n (t) = −a1 (t)xn (t) − a2 (t)xn−1 (t) − · · · − an (t)x1 (t),

es decir, "x ! (t) = M(t) "x(t) con


 
0 1 0 ··· 0
 0 0 1 ··· 0 
 
M= .. .. .. .. .. . (8.6.2)
 . . . . . 
−an (t) −an−1 (t) −an−2 (t) · · · −a1 (t)

Gracias a esta transformación, vamos a ser capaces de obtener un teorema


de existencia y unicidad de soluciones para este tipo de ecuaciones diferen-
ciales. Para ello hemos de tener en cuenta lo siguiente:
a) Si y(t) es una solución de la ecuación Ln y(t) = 0, entonces
 
y(t)
 
 y ! (t) 
" =
φ(t) 


 .. 
 . 
y (n−1) (t)

es una solución del sistema. La demostración consiste simplemente en llevar


"
esta φ(t) al sistema y comprobar que se verifica idénticamente.
b) Recı́procamente, si  
x1 (t)
 
 x2 (t) 
" =
φ(t)  .


 .. 
 
xn (t)
es una solución del sistema asociado a la ecuación diferencial, veamos que
"
x1 (t) es una solución de la ecuación diferencial. Llevando φ(t) al sistema,
8.6. ECUACIONES LINEALES HOMOGÉNEAS DE ORDEN N 301

obtenemos:
   
x!1 (t) x1 (t)
 !   
 x2 (t)   x2 (t) 
"
" ! (t) = M(t) φ(t)    
φ =⇒  .  = M(t)  . ,
 ..   .. 
   
x!n (t) xn (t)

o lo que es lo mismo:

x!1 (t) = x2 (t) ⇒ x2 (t) = x!1 (t),


x!2 (t) = x3 (t) ⇒ x3 (t) = x!2 (t) = x!!1 (t),
... ... ... (8.6.3)
(n−1)
x!n−1 (t) = xn (t) ⇒ xn (t) = x!n−1 (t) = x1 (t),
x!n (t) = −an (t) x1 (t) − . . . − a1 (t) xn (t).

La última expresión puede ponerse como:


(n) (n−1)
x1 (t) + a1 (t)x1 (t) + . . . + an (t)x1 (t) = 0.

Esto nos demuestra que x1 (t) es una solución de la ecuación diferencial.


Pero además comprobamos, sin más que echar un vistazo al conjunto de
" son las derivadas
las ecuaciones (8.6.3), que las demás componentes de φ(t)
sucesivas de x1 (t) hasta el orden n − 1.
Teorema 5: supongamos que las funciones ai (t), i = 1, 2, . . . , n son todas
continuas en un cierto intervalo de la recta real I. Fijados τ ∈ I y ξ" ∈ Rn ,
existe una única solución de la ecuación (8.6.1), y(t), con la condición inicial
siguiente: y(τ ) = ξ1 , y ! (τ ) = ξ2 , . . . , y (n−1) (τ ) = ξn .
Demostración. Consideremos el sistema asociado a la ecuación diferen-
cial. Sabemos que existe una única solución del mismo
 
y1 (t)
 
 y2 (t) 
" = 
φ(t)  . 
 .. 
 
yn (t)
302 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

" ) = ξ,
que verifica φ(τ " es decir, y1 (τ ) = ξ1 , y2 (τ ) = ξ2 , . . . , yn (τ ) = ξn . Pero
(n−1)
y1 (t) es una solución de la ecuación e y2 (t) = y1! (t), . . . , yn (t) = y1 (t),
con lo que existe una solución de (8.6.1) verificando
(n−1)
y1 (τ ) = ξ1 , y1! (τ ) = y2 (τ ) = ξ2 , . . . , y1 (τ ) = yn (τ ) = ξn .

Veamos que esta solución es única con estas condiciones iniciales. Si hubiera
otra h(t) verificando h(τ ) = ξ1 , . . . , h(n−1) (τ ) = ξn , entonces el vector
 
h(t)
 
 h! (t) 
" =
ψ(t) 


 .. 
 . 
h (n−1) (t)

"
serı́a una solución del sistema asociado verificando ψ(t) " Pero esta
= ξ.
" = φ(t)
solución es única, lo que implica que ψ(t) " ⇒ y1 (t) = h(t) ∀ t ∈ I.

Definición 5: sean y1 (t), y2 (t), . . . , yn (t), n funciones definidas en el mismo


intervalo I de la recta real y de clase C n−1 (I). Por wronskiano 6 de estas n
funciones entendemos el siguiente determinante:
2 2
2 y1 (t) y2 (t) · · · yn (t) 2
2 2
2 ! (t) ! (t) ! (t) 2
2 y 1 y 2 · · · yn 2
2 2
W (y1 , y2 , . . . , yn )(t) = 2 .. 2. (8.6.4)
2 ··· ··· . ··· 2
2 2
2 (n−1) 2
2 y (n−1)
(t) y2
(n−1)
· · · yn (t) 2
1

Teorema 6: la condición necesaria y suficiente para que n soluciones


y1 , y2 , . . . , yn de la ecuación diferencial Ln y(t) = 0 sean linealmente in-
dependientes es que
W (y1 , y2 , . . . , yn )(t) != 0.

Demostración. Observemos que la matriz cuyo determinante nos da el


wronskiano de n soluciones de la ecuación diferencial, es una matriz solución
del sistema asociado, por lo que dicho wronskiano, o bien se anula en todos
los puntos del intervalo I, o bien no se anula en ninguno.
6
Jósef Maria Hoëné de Wronski (1776–1853), matemático y mı́stico polaco.
8.6. ECUACIONES LINEALES HOMOGÉNEAS DE ORDEN N 303

i) Supongamos que el wronskiano sea distinto de cero. Entonces las


columnas de su matriz
   
y1 (t) yn (t)
   
 y1! (t)   yn! (t) 
φ" 1 (t) = 


, ... " n (t) = 
φ 

 (8.6.5)
 ..   .. 
 .   . 
(n−1) (n−1)
y1 (t) yn (t)

son linealmente independientes.


Sn Construyamos una combinación lineal
de las funciones yi (t), α y
i=1 i i (t) = 0. Derivando k veces obtenemos
Sn (k)
i=1 αi yi (t) = 0, para k = 1, 2, . . . , n − 1. Esto implica que
n
&
" i (t) = "0.
αi φ
i=1

" i (t) resulta que α1 = α2 = . . . = αn = 0,


Por la independencia lineal de los φ
lo que demuestra la independencia lineal de las funciones yi (t).
ii) Supongamos ahora que las funciones yi (t) son linealmente indepen-
dientes. A partir de ellas construiremos las soluciones (8.6.5) del sistema
asociado. Escribamos la siguiente combinación lineal de esos vectores:
" 1 (t) + α2 φ
α1 φ " 2 (t) + . . . αn φ
" n (t) = "0.

La primera componente de esta combinación lineal es

α1 y1 (t) + α2 y2 (t) + . . . + αn yn (t) = 0.

Como las yi (t) son linealmente independientes resulta que

α1 = α2 = . . . = αn = 0,

lo que significa que los vectores φ " 2 (t), . . . , φ


" 1 (t), φ " n (t) son linealmente inde-
pendientes. Estos vectores forman las columnas del wronskiano

W (y1 , y2 , . . . , yn )(t),

el cual será, por lo tanto, distinto de cero.


Corolario: el espacio vectorial de las soluciones de la ecuación Ln y(t) = 0
tiene dimensión n.
304 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Demostración. Sea y(t) una solución de la ecuación Ln y(t) = 0 y sea ψ(t) "
la correspondiente solución del sistema asociado. Sabemos que ψ(t) " es una
combinación lineal de n soluciones del sistema, linealmente independientes:
"
ψ(t) " 1 (t) + α2 φ
= α1 φ " 2 (t) + . . . + αn φ
" n (t). Esta es una igualdad entre
vectores que debe de verificarse componente a componente. La igualdad de
las primeras componentes nos da

y(t) = α1 y1 (t) + α2 y2 (t) + . . . + αn yn (t).

Las soluciones de la ecuación, y1 (t), y2 (t), . . . , yn (t) son linealmente inde-


pendientes ya que, al serlo φ " 2 (t), . . . , φ
" 1 (t), φ " n (t), el correspondiente wrons-
kiano es distinto de cero. Pero entonces cada solución de la ecuación puede
ponerse como una combinación lineal de exactamente n soluciones lineal-
mente independientes, como querı́amos demostrar.

8.7 Ecuación lineal no homogénea de orden n

Estas ecuaciones son de la forma


dn dn−1
y(t) + a1 (t) y(t) + . . . + an (t) y(t) = b(t), (8.7.1)
dtn dtn−1
donde a1 (t), . . . an (t), b(t) son funciones de la variable real t, la cual está
definida en un cierto intervalo I ⊂ R. Esta ecuación puede escribirse en
forma abreviada Ln y(t) = b(t), y su sistema asociado se construye de la
misma manera que en el caso homogéneo. La única diferencia consiste en
que ahora el sistema asociado es
 
0
 0 
! " "  
"x (t) = M(t)"x(t) + b(t) con b(t) =  .  . (8.7.2)
 .. 
b(t)

La forma de la matriz M(t) es exactamente igual a la que tiene en el caso


homogéneo (8.6.2). También aquı́ hay una correspondencia biunı́voca entre
las soluciones de la ecuación y las del sistema asociado. La relación que
existe entre ambas es exactamente la misma que en el caso homogéneo:
el primer elemento de la matriz columna que representa una solución del
sistema es una solución de la ecuación y, dada una solución de la ecuación,
8.7. ECUACIÓN LINEAL NO HOMOGÉNEA DE ORDEN N 305

la correspondiente solución del sistema es el vector columna cuyas compo-


nentes son las derivadas de la solución de la ecuación, escritas en orden
correlativo desde la derivada de orden cero hasta la de orden n − 1.
Es idéntico también el teorema de existencia y unicidad de soluciones:
si todas las funciones a1 (t), . . . an (t), b(t) son continuas en I entonces dados
el vector ξ"T = (ξ1 , ξ2 , . . . , ξn ) y τ ∈ I, existe una única solución y(t) de la
ecuación, definida en I y que verifica la condición inicial

y(τ ) = ξ1 , y ! (τ ) = ξ2 , . . . , y (n−1) (τ ) = ξn .

Este resultado es una consecuencia directa del teorema 1. En efecto, si


a1 (t), . . . , an (t) y b(t) son continuas en I, también lo son los elementos de
matriz en el sistema (8.7.2); por el teorema 1 el sistema (8.7.2) admite una
única solución
     
y(t) y(τ ) ξ1
     
 y ! (t)   y ! (τ )   ξ2 
     
 ..  con la condición inicial  ..  =  . .
 .   .   . 
     . 
y (n−1) (t) y (n−1) (τ ) ξn

Contamos también con un teorema que nos permite hallar dicha solución,
y que probaremos a continuación.
Teorema 7: la solución general de (8.7.1) viene dada como la suma de
la solución general de la ecuación homogénea más una solución particular
de la no homogénea. Para ser más precisos, si y1 (t), y2 (t), . . . , yn (t) es una
base del espacio de soluciones de la ecuación diferencial Ln y(t) = 0, la
solución, y(t), de la ecuación no homogénea Ln y(t) = b(t) que verifica
y(τ ) = ξ1 , y ! (τ ) = ξ2 , . . . , y (n−1) (τ ) = ξn , viene dada por
n !
& 1 t$ % "
Wk (y1 , y2 , . . . , yn )(s)
y(t) = yh (t) + yk (t) b(s) ds , (8.7.3)
τ W (y1 , y2 , . . . , yn )(s)
k=1

donde yh (t) es la solución de L!n , y(t) = 0 con


(n−1)
yh (τ ) = ξ1 , yh! (τ ) = ξ2 , . . . , yh (τ ) = ξn

y Wk (y1 , y2 , . . . , yn )(s) es el determinante que se obtiene reemplazando la


columna k-ésima en W (y1 , y2 , . . . , yn )(s) por (0, 0, . . . , 1)T . Recordemos
306 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

que (0, 0, . . . , 1)T es justamente el vector columna transpuesto del vector


(0, 0, . . . , 1); utilizamos esta notación simplemente para ahorrar espacio.
Observación: la forma que adopta la solución particular es realmente
enrevesada. En la Sección 8.9 detallaremos dos métodos más eficaces para
calcular las soluciones particulares.
Demostración. Consideremos la ecuación Ln y(t) = b(t) y sea + x$ (t) = M(t) +x(t) + +b(t)
su sistema asociado. La solución de la ecuación, y(t), que verifica la condición inicial
y(τ ) = ξ1 , y $ (τ ) = ξ2 , . . . , y (n−1) (τ ) = ξn
se obtiene hallando la solución del sistema asociado:
   
y(t) ξ1
   
 y $ (t)   ξ2 
+ =
φ(t) 

 que cumple + )=
φ(τ 
 +
 = ξ.
 ..   .. 
 .   . 
y (n−1) (t) ξn
Esta solución puede ponerse como
1 t
+ =φ
φ(t) + h (t) + Φ(t) Φ−1 (s) +b(s) ds,
τ

+ h (t) la solución del sistema +


siendo φ x$ (t) = M(t) + + h (τ ) = ξ.
x(t) con la condición inicial φ +

Para demostrar el teorema, bastará calcular la primera componente de la igualdad


vectorial (8.7.3). Como +b(s) tiene todas sus componentes nulas salvo la última, el ele-
mento relevante de Φ(t) Φ−1 (s) = B(t, s) = {bij (t, s)} es bin (t, s). De esta manera,
escribiendo la primera componente de (8.7.3) y recordando que b(s) es la función en el
término inhomogéneo de la ecuación, obtenemos
1 t
y(t) = yh (t) + b1n (t, s) b(s) ds.
τ

Calculemos b1n (t, s). Como Φ(t) es una matriz fundamental arbitraria del sistema ho-
x$ (t) = M(t) +
mogéneo + x(t), tendrá la forma siguiente:
 
y1 (t) y2 (t) ... yn (t)
 y1$ (t) y2$ (t) ... yn$ (t) 
 
 
Φ(t) =  .. .. .. ,
 
 . . ... . 
(n−1) (n−1) (n−1)
y1 (t) y2 (t) ... yn (t)
donde y1 (t), y2 (t), . . . , yn (t) son n soluciones linealmente independientes de la ecuación
homogénea Ln y(t) = 0. Evaluemos Φ−1 (s):
 
α11 α12 ... α1n
 
1  α21 α22 ... α2n 
Φ−1 (s) = 

,
det Φ(s)  ... ... ... ... 

αn1 αn2 ... αnn
8.8. ECUACIONES CON COEFICIENTES CONSTANTES 307

donde:
2 2
2 y1 ... yi−1 yi+1 ... yn 2
2 2
2 2
2 .. .. .. .. .. .. 2
2 . . . . . . 2
2 2
2 (j−2) (j−2) (j−2) (j−2) 2
2 y ... yi−1 yi+1 ... yn 2
2 1 2
αij = (−1)i+j aji ; aji =2 2.
2 y (j) ...
(j)
yi−1
(j)
yi+1 ...
(j)
yn 2
2 1 2
2 2
2 .. .. .. .. .. .. 2
2 . . . . . . 2
2 2
2 (n−1) (n−1) (n−1) (n−1)
2
2 y ... yi−1 yi+1 ... yn 2
1

Ahora bien, como


 
última
 
 columna 
b1n (t, s) = (primera fila de Φ(t)) 

,
 (8.7.4)
 de 
Φ−1 (s)

llevando a (8.7.4) los resultados anteriores se obtiene


n
& & n
αkn (s) (−1)k+n ank (s)
b1n (s, t) = yk (t) = yk (t) , (8.7.5)
det Φ(s) W (y1 , y2 , . . . , yn )(s)
k=1 k=1

con
2 2
2 y1 ... yk−1 yk+1 ... yn 2
2 2
2 2
2 .. .. .. .. .. .. 2
(−1)k+n ank (s) = (−1)k+n 2 . . . . . . 2
2 2
2 (n−2) (n−2) (n−2) (n−2)
2
2 y ... yk−1 yk+1 ... yn 2
1

2 2
2 y1 ... yk−1 0 yk+1 ... yn 2
2 2
2 2
2 .. .. .. .. .. .. .. 2
=2 . . . . . . . 2 = Wk (y1 , y2 , . . . , yn ). (8.7.6)
2 2
2 (n−1) (n−2) (n−2) (n−1)
2
2 y ... yk−1 1 yk+1 ... yn 2
1

De esta manera, obtenemos (8.7.3), a través de (8.7.5) y (8.7.6).

8.8 Ecuaciones lineales de orden n con coeficientes


constantes

Son ecuaciones del tipo siguiente

dn dn−1
y(t) + a1 y(t) + . . . + an y(t) = b(t), (8.8.1)
dtn dtn−1
308 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

siendo a1 , . . . an constantes reales. Como ya hemos indicado en la sección


8.6, la resolución de una ecuación de este estilo puede relacionarse como la
del sistema de ecuaciones diferenciales asociado a ella. No obstante, por la
frecuencia con la que aparecen este tipo de ecuaciones, es conveniente dar
explı́citamente los resultados para ellas. Aquı́ se ofrecerán estos resultados
sin demostrarlos, pero sı́ queremos indicar que la justificación de lo que se
expone a continuación es una consecuencia del análisis del sistema lineal
asociado. Consideraremos en primer lugar el caso homogéneo y luego el no
homogéneo.

8.8.1 Caso homogéneo: b(t) = 0

Fijémonos en que la solución ha de ser tal que sus derivadas sucesivas


multiplicadas por ciertas constantes y sumadas han de dar cero. Existe
una función que se acomoda a estas propiedades: la exponencial. Por este
motivo buscamos soluciones del tipo y(t) = eλ t , siendo λ la incógnita7 .
Sustituyendo en la ecuación tenemos:

(λn + a1 λn−1 + · · · + an−1 λ + an ) eλ t = 0,

como eλ t != 0, habrá de verificarse la siguiente ecuación algebraica de orden


n:
λn + a1 λn−1 + · · · + an−1 λ + an = 0. (8.8.2)
Esta es exactamente la ecuación caracterı́stica que saldrı́a de considerar el
determinante det(A − λ I) = 0, siendo A la matriz del sistema asociado.
Las raı́ces de este polinomio caracterı́stico serán

(λ1 , m1 ), (λ2 , m2 ), . . . (λp , mp ); m1 + m2 + · · · + mp = n.

Los números naturales mk son las multiplicidades de las raı́ces λk . Se


presentan diversos casos:

a) Si λk tiene mk = 1, entonces la solución asociada es simplemente

yλk (t) = Ck eλk t , (8.8.3)

con Ck una constante arbitraria.


7
Otra manera de convencerse de que las funciones exponenciales son realmente rele-
vantes en este caso es recordar la forma que presenta la solución de un sistema lineal de
coeficientes constantes, tras desarrollar la exponencial etA .
8.8. ECUACIONES CON COEFICIENTES CONSTANTES 309

b) Si λk tiene mk ≥ 1, entonces la solución asociada es

yλk (t) = (Ck,0 +Ck,1 t+Ck,2 t2 +· · ·+Ck,mk −1 tmk −1 ) eλk t = pk (t) eλk t ,

siendo pk (t) un polinomio de grado mk − 1, con mk coeficientes arbi-


trarios. Observemos que el caso a) está incluido aquı́ como un caso
particular (mk = 1).

La solución general de la ecuación será

y(t) = (C1,0 + C1,1 t + C1,2 t2 + · · · + C1,m1 −1 tm1 −1 ) eλ1 t


+(C2,0 + C2,1 t + C2,2 t2 + · · · + C2,m2 −1 tm2 −1 ) eλ2 t + · · ·
+(Cp,0 + Cp,1 t + Cp,2 t2 + · · · + Cp,mp −1 tmp −1 ) eλp t . (8.8.4)

Obsérvese que hay m1 + m2 + · · · + mp = n constantes arbitrarias, como


corresponde a la solución general de una ecuación de orden n.
En lo anterior estamos suponiendo que los coeficientes de la ecuación
diferencial son reales y por tanto nos interesan las soluciones reales. Si
todos los λk resultan ser reales no hay problema, ya que la solución es au-
tomáticamente real eligiendo las constantes Ci,j reales. Ahora bien, pudiera
haber alguna raı́z del polinomio caracterı́stico que fuera compleja. Vamos
a analizar esta posibilidad.
Supongamos que el polinomio caracterı́stico tiene una raı́z compleja
λ = a + b i, a, b ∈ R, con multiplicidad m. Como los coeficientes de la
ecuación caracterı́stica son reales, necesariamente admitirá otra solución
compleja, la conjugada de la anterior, λ̄ = a−b i con la misma multiplicidad.
Por tanto, la parte de la solución asociada a estas dos raı́ces se podrá escribir
como
yλ (t) = pm (t) e(a+ib) t + qm (t) e(a−ib) t ,
siendo pm (t) y qm (t) polinomios de grado (m − 1) en la variable t, cada
uno con m constantes arbitrarias, como ya se ha visto en (8.8.4). Pero esta
solución se puede reescribir como sigue:

yλ (t) = pm (t) ea t eib t + qm (t) ea t e−ib t


= ea t {pm (t)[cos b t + isen bt] + qm (t)[cos b t − isen bt]}
= {[pm (t) + qm (t)] cos b t + [i pm (t) − i qm (t)]sen bt} ea t ,
310 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

o bien
yλ (t) = (rm (t) cos b t + sm (t) sen bt) ea t , (8.8.5)
siendo rm (t) y sm (t) polinomios de grado (m − 1) como los anteriores, cada
uno con m constantes arbitrarias que podemos elegir reales para que la
solución lo sea también.
Si los coeficientes de la ecuación caracterı́stica fueran complejos, no
podrı́amos hacer esta transformación. No obstante, los casos a) y b) estu-
diados en esta sección serı́an válidos, con la única modificación de que ahora
habrı́amos de permitir soluciones complejas para la ecuación caracterı́stica.

Ejemplo 5: para determinar la solución general de la ecuación diferencial


y !!! (t)− 5y !! (t) + 8y ! (t)− 4y(t) = 0 se han de hallar en primer lugar las raı́ces
de su ecuación caracterı́stica λ3 − 5λ2 + 8λ − 4 = 0, que son λ = 1 y λ = 2
doble. Con esta información se determina la solución

y(t) = C1 et + (C2 + C3 t) e2t ,

siendo C1 , C2 , C3 constantes arbitrarias.


Ejemplo 6: para la ecuación y (iv) (t) + 2y !! (t) + y(t) = 0, las raı́ces del poli-
nomio caracterı́stico λ4 +2λ2 +1 = 0 son λ = ±i dobles. La solución general
se puede expresar en cualquiera de las dos formas equivalentes siguientes

y(t) = (C1 + C2 t)eit + (C3 + C4 t) e−it = (K1 + K2 t) cos t + (K3 + K4 t) sen t,

siendo C1 , C2 , C3 , C4 , K1 , K2 , K3 , K4 constantes arbitrarias.

8.8.2 Caso no homogéneo: b(t) != 0

Sabemos, por el teorema 7, que la solución general de la ecuación

dn dn−1
y(t) + a1 y(t) + . . . + an y(t) = b(t), (8.8.6)
dtn dtn−1
será la suma de la solución general de la ecuación diferencial homogénea
asociada, más una solución particular de la no homogénea. Hemos indicado
en el apartado anterior cómo calcular la solución general de la homogénea.
Para hallar la solución particular de la no homogénea contamos con dos
métodos que se describirán en la sección siguiente.
8.8. ECUACIONES CON COEFICIENTES CONSTANTES 311

8.8.3 Ecuaciones de Cauchy o de Euler

Existe un tipo de ecuaciones diferenciales lineales con coeficientes varia-


bles, que suelen aparecer con frecuencia en las aplicaciones, y que tienen
la particularidad de que pueden convertirse en ecuaciones diferenciales de
coeficientes constantes, sin mas que efectuar un cambio en la variable in-
dependiente. Su forma general es la siguiente
a0 (at + b)n y (n) + a1 (at + b)n−1 y (n−1) + . . . + an−1 (at + b)y ! + an y = f (t)
y se denominan ecuaciones de Euler o de Cauchy. Observemos que el coe-
ficiente de la derivada k-ésima de la función incógnita es precisamente la
potencia k-ésima de (at + b). Pues bien, efectuando el cambio de variable
(at+b) = ez , obtenemos una ecuación diferencial de coeficientes constantes.

Ejemplo 7: vamos a hallar la solución general de la ecuación


2 !!! 1 1
y (iv) + y − 2 y !! + 3 y ! = 0,
x x x
que es de Euler o de Cauchy, como se comprueba sin más que multiplicar por
x4 la ecuación (en esta ocasión se ha llamado x a la variable independiente).
Efectuamos el cambio de variable x = ez y aplicamos la regla de la cadena
para obtener
$ 2 %
d 1 d d2 1 d d
= , = 2 − ,
dx x dz dx2 x dz 2 dz
$ %
d3 1 d3 d2 d
3
= 3 3
− 3 2
+2 , ,
dx x dz dz dz
$ %
d4 1 d4 d3 d2 d
4
= 4 4
− 6 3
+ 11 2
−6 , ,
dx x dz dz dz dz
lo que nos conduce a la ecuación diferencial lineal de coeficientes constantes
d4 w d3 w d2 w
− 4 + 4 = 0, w(z) ≡ y(x).
dz 4 dz 3 dz 2
El polinomio caracterı́stico de esta ecuación tiene dos raı́ces dobles, λ = 0
y λ = 2, por tanto, la solución es
w(z) = (C1 + C2 z) + (C3 + C4 z) e2z .
312 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

Pero como hicimos el cambio z = ln x, tenemos finalmente

y(x) = (C1 + C2 ln x) + (C3 + C4 ln x) x2

= C1 + C3 x2 + C2 ln x + C4 x2 ln x.

8.9 A la búsqueda de soluciones particulares

Mostraremos a continuación dos procedimientos de gran utilidad para hallar


soluciones particulares de ecuaciones diferenciales lineales no homogéneas.
Se trata del método de los coeficientes indeterminados y del método de
variación de las constantes.

a) Método de los coeficientes indeterminados


La ventaja que presenta este método es que resulta bastante sencillo y
útil en la práctica. En general este procedimiento no es aplicable a
las ecuaciones de coeficientes variables (aunque en determinadas
ocasiones sı́ funciona). Para poder aplicarlo a las ecuaciones de coe-
ficientes constantes, se requiere que la función b(t) que aparece como
parte no homogénea sea una combinación lineal finita de productos
de funciones seno, coseno, exponenciales y polinomios, de manera que
al efectuar las derivadas sucesivas de b(t) lleguemos a un punto en el
que las funciones que van apareciendo se repiten y no aparecen nuevas
funciones.
Ası́ pues, supongamos que b(t) = c1 u1 (t) + c2 u2 (t) + · · · + cr ur (t), y
consideremos todas las derivadas diferentes de estas funciones uk (t):
(d1 )
u1 , u!1 , u!!1 , . . . , u1 ;
(d2 )
u2 , u!2 , u!!2 , . . . , u2 ;
··· ···
ur , u!r , u!!r , . . . , ur(dr ) .

La solución particular se busca como combinación lineal de todas


las funciones diferentes que hayan aparecido; los coeficientes de esta
combinación lineal se determinan imponiendo que se trate de una
solución de la ecuación lineal no homogénea.
8.9. A LA BÚSQUEDA DE SOLUCIONES PARTICULARES 313

Hay que tener en cuenta una salvedad: si una de la funciones uk (t)


que aparecen en b(t) es solución de la ecuación homogénea, correspon-
diendo a una raı́z con multiplicidad p, entonces en el procedimiento
anteriormente descrito en lugar de uk (t) y sus derivadas habrá que
intruducir tp uk (t) y sus derivadas; si en b(t) aparece tq uk (t), entonces
tomaremos como función de partida tp+q uk (t).

Ejemplo 8: consideremos la ecuación

y !! − 2y ! + 4y = t3 e2t .

El polinomio caracterı́stico tiene un raı́z doble λ = 2, dando lugar a


la solución de la ecuación homogénea

yh (t) = (C1 + C2 t) e2t .

Es evidente que el término no homogéneo de la ecuación diferencial


está asociado a la raı́z λ = 2, con un factor t3 (es decir, q = 3 en
la explicación precedente). Por tanto, hemos de buscar la solución
particular de la no homogénea como una combinación lineal de la
función t2+3 e2t y sus derivadas, es decir:

yp (t) = A t5 e2t + B t4 e2t + C t3 e2t + D t2 e2t + F t e2t + G e2t .

Derivando esta expresión y sustituyendo en la ecuación diferencial


inicial llegamos a un sistemas de ecuaciones algebraicas que ha de
permitir evaluar la solución particular (un detalle que permite reducir
cálculos es darse cuenta de lo siguiente: el término F t e2t + G e2t es
justamente la solución de la homogénea, por tanto podemos prescindir
de él al hallar la solución particular; si nos empeñamos en trabajar
con esta parte, al final del cálculo veremos que los coeficientes F y G
no se pueden determinar, deben ser libres). En este caso el sistema
es particularmente sencillo:

20A = 1, 12B = 0, 6C = 0, 2D = 0,

de modo que la solución general del sistema lineal no homogéneo es


$ 5 %
t
y(t) = + C1 + C2 t e2t .
20
314 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

b) Método de variación de las constantes


Las limitaciones del procedimiento anterior son evidentes: si por ejem-
plo b(t) = ln t, al hacer las derivadas sucesivas, estas no se repiten
nunca y nos encontrarı́amos ante una infinidad de términos. En estos
casos podemos aplicar otro método que describimos a continuación.
El método se denomina variación de las constantes por razones ob-
vias: lo que se hace es tomar la solución de la ecuación homogénea
asociada, que contiene n constantes arbitrarias Ck , y suponer que,
permitiéndolas ser funciones de t, Ck (t), nos van a generar la solución
de la no homogénea. Mostremos con un ejemplo cómo funciona este
procedimiento: elijamos una ecuación diferencial lineal de segundo
orden con coeficientes variables

y !! + a1 (t) y + a2 (t) y = b(t). (8.9.1)

Sean y1 (t) e y2 (t) dos soluciones linealmente independientes de la


ecuación homogénea y !! + a1 (t) y + a2 (t) y = 0. Su solución general
será
y(t) = C1 y1 (t) + C2 y2 (t).
Sustituimos las constantes C1 y C2 por dos funciones de t que habrá
que determinar, llamémoslas v1 (t) y v2 (t), y tendremos la función

y(t) = v1 (t) y1 (t) + v2 (t) y2 (t),

a la que imponemos que sea solución de (8.9.1). Nótese que hemos


introducido dos funciones y de momento sólo hemos impuesto una
condición, de manera que tenemos aún una cierta libertad con la que
jugar. Al derivar la función y(t) tenemos lo siguiente:

y ! = v1! y1 + v2! y2 + v1 y1! + v2 y2! ;


y !! = v1!! y1 + 2v1! y1! + v1 y1!! + v2!! y2 + 2v2! y2! + v2 y2!! .

Llevando esto a (8.9.1), y tras una sencilla simplificación, resulta lo


siguiente:

(v1!! y1 + 2v1! y1! + v2!! y2 + 2v2! y2! ) + a1 (v1! y1 + v2! y2 ) = b(t),

o bien

[(v1! y1 + v2! y2 )! + v1! y1! + v2! y2! ] + a1 (v1! y1 + v2! y2 ) = b(t). (8.9.2)
8.9. A LA BÚSQUEDA DE SOLUCIONES PARTICULARES 315

Para evitar tener una derivada de orden dos en v1 (t) y v2 (t), hacemos
uso de la libertad que nos queda en la elección de estas funciones y
tomamos
v1! y1 + v2! y2 = 0, (8.9.3)
con lo cual (8.9.2) se reduce a

v1! y1! + v2! y2! = b(t). (8.9.4)

Entonces (8.9.3) y (8.9.4) forman un sistema de dos ecuaciones lineales


de primer orden con incógnitas v1 (t) y v2 (t) que podrá ser integrado
para hallar la solución del problema que estudiamos.
Si la ecuación es de primer orden, sólo habrá una función arbitraria y
no habrá libertad tras imponer la verificación de la ecuación diferen-
cial. Si la ecuación es de orden mayor que dos, tendremos aún más
grados de libertad, que deberemos usar sensatamente para simplificar
los cálculos. Para ser más precisos, si conocemos la solución general de
la ecuación homogénea asociada a (8.8.6) en términos de n funciones
linealmente independientes y1 (t), . . . , yn (t), dada en la forma

y(t) = C1 y1 (t) + · · · Cn yn (t), (8.9.5)

introducimos nuevas funciones v1 (t), . . . , vn (t) que habrá que deter-


minar de manera que

y(t) = v1 (t) y1 (t) + · · · + vn (t) yn (t), (8.9.6)

sea solución de (8.8.6). Si, de manera completamente análoga al caso


de la ecuación de segundo orden desarrollado anteriormente, se im-
pone a las n funciones desconocidas v1 (t), . . . , vn (t) el satisfacer el
siguiente sistema de ecuaciones diferenciales de primer orden

v1! y1 + · · · + vn! yn = 0,
v1! y1! + · · · + vn! yn! = 0,
v1! y1!! + · · · + vn! yn!! = 0, (8.9.7)
.. .. .. ..
. . . .
(n−1)
v1! y1 + · · · + vn! yn(n−1) = b(t),
316 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

entonces la función (8.9.6) es una solución de la ecuación no ho-


mogénea de orden n. Para determinar v1 (t), . . . , vn (t) del sistema
(8.9.7), primero hay que despejar las funciones v1! (t), . . . , vn! (t) (esto
puede resultar bastante tedioso si n > 3), pudiendo expresar los re-
sultados en términos de wronskianos de las funciones y1 (t), . . . , yn (t);
una vez hecho esto, ya sólo habrá que obtener v1 (t), . . . , vn (t) me-
diante cuadraturas. Si en estas cuadraturas (integrales) no incluimos
las constantes arbitrarias de integración, al sustituir en (8.9.6) obten-
dremos una solución particular de la ecuación (8.8.6); ahora bien, si
tenemos en cuenta las constantes de integración, entonces al sustituir
en (8.9.6) se obtendrá la solución general de la ecuación diferencial
(8.8.6).

Ejemplo 9: utilizaremos el procedimiento que acabamos de describir


para resolver la ecuación y !! + y = cot t. La solución de la ecuación
homogénea es muy sencilla

yh (t) = C1 cos t + C2 sen t.

Suponiendo ahora que la solución general se obtiene admitiendo que


en la solución precedente C1 (t) y C2 (t), y derivando llegamos a

y ! (t) = C1! cos t + C2! sen t − C1 sen t + C2 cos t,

donde imponemos la anulación de los términos que contienen deriva-


das de C1 (t) y C2 (t):

C1! cos t + C2! sen t = 0. (8.9.8)

Calculamos ahora la derivada segunda

y ! (t) = −C1! sen t − C1 cos t + C2! cos t − C2 sen t,

y sustituimos en la ecuación de partida, llegando a lo siguiente

−C1! sen t + C2! cos t = cot t. (8.9.9)

De las ecuaciones (8.9.8) y (8.9.9) es posible despejar las derivadas


de C1 (t) y C2 (t):

cos2 t
C1! (t) = − cos t, C2! (t) = .
sen t
8.10. REDUCCIÓN DEL ORDEN 317

Integrando estas dos ecuaciones obtenemos


$ %
t
C1 (t) = K1 − sen t, C2 (t) = K2 + cos t + ln tan ,
2
de modo que la solución general de la ecuación no homogénea es
! $ %"
t
y(t) = (K1 − sen t) cos t + K2 + cos t + ln tan sen t
2
$ %
t
= K1 cos t + K2 sen t + (sen t) ln tan .
2

8.10 Reducción del orden

Volvamos a la ecuación (8.6.1) en su forma más general Ln y(t) = 0.


Supongamos que hemos encontrado una solución de la misma, a la que
vamos a llamar yp (t): Ln yp (t) = 0. Efectuando el cambio de variable
dependiente
y(t) = u(t) yp (t) (8.10.1)
vamos a ser capaces de reducir el orden de (8.6.1) en una unidad. En
efecto, desarrollando Ln y(t) = Ln [u(t) yp (t)] = 0 obtenemos una ecuación
diferencial lineal de orden n con función incógnita u(t); en esta ecuación el
coeficiente del término sin derivada, u(t), ha de ser cero, ya que en virtud
de (8.10.1) al hacer u(t) ≡ 1 hemos de obtener la solución y(t) = yp (t). Ası́
pues, tendremos una ecuación del tipo

u(n) (t) + α1 (t) u(n−1) (t) + · · · αn−1 (t) u! (t) = 0.

Realizando ahora el cambio u! (t) = z(t) obtenemos una ecuación diferencial


de un orden menor en la variable z(t).

Ejemplo 10: dada la ecuación diferencial lineal de coeficientes variables

(1 − t2 ) y !! − 2t y ! + 2y = 0,

puede buscarse una solución particular en forma de monomio. En concreto,


y = t es solución, como fácilmente se puede comprobar. Si efectuamos el
cambio de función y(t) = t u(t) y llegamos a la ecuación

(1 − t2 )t u!! + 2(1 − 2t2 ) u! = 0,


318 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

que, como no tiene término en u(t), pasa a ser de primer orden tomando
u! (t) = z(t):
$ %
2 dz dz 1 t
(1 − t )t + 2(1 − 2t ) z = 0 ⇒
2
= −2 − dt,
dt z t 1 − t2
ecuación que se integra fácilmente:
C1 C1 C1 1 C1 1 du
z(t) = = 2 + + = ,
t2 (1−t )
2 t 2 1−t 2 1+t dt
de modo que la solución general buscada es
$ %
C1 C1 1+t
u(t) = C2 − + ln .
t 2 1−t

8.11 Problemas
1. En el circuito de la figura suponemos que el generador tiene una f.e.m.
ε = E sen wt, donde E y w son constantes. Si la resistencia y la capacidad
son constantes, calcúlese sin hacer uso de la transformada de Laplace la
intensidad como función del tiempo.

M1

R ε
g

ω
M2
C
Prob. 1 Prob.2 Prob. 3
2. Determı́nese usando el formalismo hamiltoniano,8 el movimiento del sistema
de dos masas que se muestra en la figura. Estas masas están cayendo en el
campo gravitatorio terrestre que supondremos constante. El muelle que las
une tiene constante de recuperación k. La distancia de equilibrio entre estas
masas es l.
8
Sir William Rowan Hamilton (1805–65), matemático irlandés que inventó una ex-
tensión de los números complejos, los cuaterniones.
8.11. PROBLEMAS 319

3. Un tubo delgado y hueco gira en un plano vertical alrededor de un eje


horizontal perpendicular a dicho plano como se muestra en la figura. La
velocidad de giro w es constante. Prescindimos de rozamientos. Estúdiese
el movimiento de una partı́cula de masa m en el interior del tubo.
4. Un objeto de masa constante m es proyectado verticalmente hacia arriba
con una velocidad inicial v0 en un medio que presenta una resistencia k|"v |,
donde k es una constante. Despreciando cambios en la fuerza gravitacional,
determı́nese la altura máxima xm alcanzada por el cuerpo y el tiempo in-
vertido. Estudiar el lı́mite k → 0.
5. Consideremos un foco luminoso colocado en el origen. Queremos averiguar
la forma que ha de tener un espejo para que todo rayo emitido por el foco
y que se refleje en el espejo salga paralelo a una dirección dada.
6. Encuéntrese la solución general de las siguientes ecuaciones diferenciales:
a) y %% + 2y % − 15y = 0.
b) y iv − 6y %%% + 12y %% − 8y % = 0.
c) y %%% − 5y %% + 3y % + 9y = 0.

7. Sean A y B dos matrices que conmutan. Pruébese que: eA+B = eA eB .


8. Sea A(t) una matriz n × k y B(t) una matriz k × m, cuyos elementos de
matriz son funciones derivables de la variable independiente t. Pruébese
que:
d
[A(t) · B(t)] = A% (t) · B(t) + A(t) · B% (t).
dt
9. Se considera una familia de n elementos radiactivos que sufren desintegra-
ciones según la siguiente ley: en un tiempo ∆t el elemento i–ésimo pierde
una fracción ki ∆t de su masa y recibe una fracción kij ∆t de la masa del
j–ésimo elemento.
a) Escrı́banse las ecuaciones de este sistema fı́sico.
b) Estudiése la existencia de configuraciones del sistema tales que los por-
centajes de cada constituyente permanezcan constantes, y véase a qué tipo
de problema conduce esta cuestión.
10. La propulsión de los cohetes se debe a la reacción del momento de los gases
expelidos por su cola. Como estos gases proceden de la reacción quı́mica de
los combustibles transportados por el cohete, la masa de éste disminuirá a
medida que vaya consumiéndose aquel. Encuéntrese la ecuación que nos da
el movimiento de un cohete proyectado verticalmente suponiendo el campo
gravitatorio uniforme y despreciando toda resistencia. Supóngase que la
pérdida de masa se efectua a ritmo constante y que también es constante
la velocidad con que son expulsados los gases desde el cohete. Intégrese la
ecuación obtenida para hallar v = v(m).
320 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

11. Resuélvanse los siguientes sistemas de ecuaciones diferenciales:


a) ẋ = 5x − 2y, ẏ = 4x − y.
b) ẋ = 5x − y, ẏ = 3x + y.
c) ẋ = x + 2y, ẏ = 3x + 2y.
d) ẋ = 2x + 3y, ẏ = −x − 2y.
e) ẋ = 3x + y, ẏ = 4x + 3y.
En todos los casos ż(t) ≡ z % (t); esta notación para las derivadas es frecuente
en Mecánica, cuando la variable independiente t representa el tiempo.
12. Resuélvanse los siguientes problemas de valores iniciales:

a) y %% − y % − 12y = 0, y(0) = 3, y % (0) = 5.


b) y %% + 4y % + 4y = 0, y(0) = 3, y % (0) = 7.
c) y %% + 6y % + 58y = 0, y(0) = −1, y % (0) = 5.
d) y %%% − 6y %% + 11y % − 6y = 0, y(0) = 0, y % (0) = 0, y %% (0) = 2.
e) y %%% − 2y %% + 4y % − 8y = 0, y(0) = 2, y % (0) = 0, y %% (0) = 0.
f ) y %%% − 3y %% + 4y = 0, y(0) = 1, y % (0) = −8, y %% (0) = −4.
g) y %%% − 5y %% + 9y % − 5y = 0, y(0) = 0, y % (0) = 1, y %% (0) = 6.

13. Resuélvanse los siguientes sistemas:


   
1 1 −1 1 −1 −1
d"x   d"x  
a) =  2 3 −4  "x, b) = 1 3 1  "x,
dt dt
4 1 −4 −3 1 −1
   
3 1 −1 1 −1 −1
d"x   d"x  
c) =  1 3 −1  "x, d) = 1 3 1  "x,
dt dt
3 3 −1 −3 −6 6
   
0 1 0 1 −2 4
d"x   d"x  
e) = 0 0 1  "x, f ) =  −2 3 0  "x.
dt dt
2 −5 4 4 0 2

14. Considérese el sistema lineal tẋ = a1 x + b1 y, tẏ = a2 x + b2 y, donde a1 ,


b1 , a2 y b2 son constantes reales. Demuéstrese que el cambio t = ew trans-
forma este sistema en otro lineal con coeficientes constantes. Aplı́quese esta
transformación para resolver los siguientes sistemas:

a) tẋ = x + y, tẏ = −3x + 5y. b) tẋ = 2x + 3y, tẏ = 2x + y.


8.11. PROBLEMAS 321

15. Hállese la solución general de los siguientes sistemas, donde D = dt :


d

a) (D2 + 4)x(t) + y(t) = sen 2 α,

(D2 + 1)y(t) − 2x(t) = cos2 α.

b) (D2 + D + 1)x(t) + (D2 + 1)y(t) = et ,

(D2 + D)x(t) + D2 y(t) = e−t .

16. Hállese la solución general de los siguientes sistemas:

a) ẋ = 5x + 2y + 5t, ẏ = 3x + 4y + 17t.

b) 2ẋ + ẏ + x + y = t2 + 4t, ẋ + ẏ + 2x + 2y = 2t2 − 2t.

c) 3ẋ + 2ẏ − x + y = t − 1, ẋ + ẏ − x = t + 2.

d) 2ẋ + 4ẏ + x − y = 3et , ẋ + ẏ + 2x + 2y = et .

e) 2ẋ + ẏ − x − y = −2t, ẋ + ẏ + x − y = t2 .

f) 2ẋ + ẏ − x − y = 1, ẋ + ẏ + 2x − y = t.

g) ẋ + ÿ = e2t , ẋ + ẏ − x − y = 0.

h) ẋ + ÿ + x − y = 1, ẋ + ẏ + x − y = 0.

i) −ẋ + ÿ = t + 1, ẋ + ẏ + x − 3y = 2t − 1.

j) 4ẋ + ÿ − 4x + y = 0, ẋ + ẏ + 9x − y = e2t .

17. Demuéstrese que dada una matriz n × n arbitraria A, se verifica:

det(eA ) = etrA .

18. Dar un ejemplo de una matriz B para la cual no exista ninguna otra matriz
A tal que B = eA .
 
0 0 0
 
 
19. Dada la matriz A =  1 0 0 , hállense: sen A, cos A y exp A.
 
0 1 0
20. Dar un método para el cálculo de una raı́z cuadrada de una matriz cualquiera
de M (n, C).
322 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

21. Encuéntrese una solución particular de las siguientes ecuaciones diferenciales


usando el método de variación de las constantes:

a) y %% + y = 1/ sen x; b) y %% − 4y % + 3y = (1 + e−x )−1 .

22. Encuéntrese una solución particular de las siguientes ecuaciones diferenciales


utilizando el método de los coeficientes indeterminados:

a) y %% + 2y = ex + 2; b) y %% − y = ex sen 2x.

23. Hállese la solución de los siguientes sistemas de ecuaciones diferenciales, con


las condiciones x1 (0) = x2 (0) = x3 (0) = 1. Téngase en cuenta que D = dt d
.

a) ẋ1 (t) = 2x2 (t) + x3 (t),


ẋ2 (t) = 2x1 (t) + x3 (t),
ẋ3 (t) = x1 (t) + x2 (t) + x3 (t).

b) (D − 1)x1 (t) + (D + 2)x2 (t) = 1 + et ,


(D + 2)x2 (t) + (D + 1)x3 (t) = 2 + et ,
(D − 1)x1 (t) + (D + 1)x3 (t) = 3 + et .

c) Dx1 (t) + (D + 1)x2 (t) = 1,


(D + 2)x1 (t) − (D − 1)x3 (t) = sen t,
(D + 1)x2 (t) + (D + 2)x3 (t) = et .

24. Encuéntrese una solución particular a las siguientes ecuaciones diferenciales:


a) 2y %% + 2y % + 3y = x2 + 2x − 1.
b) y %%% − 4y %% + 3y % = x2 .
c) y (iv) + 2y %%% − 3y %% = x2 + 3e2x + 4 sen x.
d) y %% − 4y = x2 e3x .
e) y %% + 2y % + 4y = ex sen 2x.
f) y %% + 3y % + 2y = x sen 2x.
g) y %% − 4y % + 4y = ex + xe2x .
h) y %% + 4y = sen 2x.
25. Resuélvanse las siguientes ecuaciones diferenciales:
a) x2 y %% − 3xy % + 4y = x + x2 ln x. b) (2x + 1)2 y %% − 2(2x + 1)y % − 12y = 6x.
8.11. PROBLEMAS 323

26. Transfórmese la ecuación

a0 xn y (n) + a1 xn−1 y (n−1) + . . . + an−1 xy % + an y = f (x),

llamada por algunos autores de Euler, y por otros de Cauchy, en una


ecuación lineal con coeficientes constantes haciendo el cambio x = ez . Há-
gase algo similar con la ecuación

a0 (ax + b)n y (n) + a1 (ax + b)n−1 y (n−1) + . . . + an−1 (ax + b)y % + an y = f (x)

mediante el cambio (ax + b) = ez .


27. Considérense los operadores

d
D= y F (D) = a0 Dn + a1 Dn−1 + . . . + an .
dt
La ecuación
a0 y (n) + a1 y (n−1) + . . . + an y = f (x)
puede escribirse en la forma F (D)y = f (x). Pruébese que
a) Si f (x) = eαx , entonces una solución particular de la ecuación viene dada
por y(x) = eαx /F (α) siempre que F (α) != 0.

F (α) = a0 αn + a1 αn−1 + . . . + an .

b) Si f (x) = sen (ax + b) ó f (x) = cos(ax + b) las soluciones particuales


respectivas tendrán la forma
1 1
y(x) = sen (ax + b), y(x) = cos(ax + b), F (−a2 ) != 0.
F (−a2 ) F (−a2 )

En este caso F (D) contiene únicamente potencias pares de D.


28. Encuéntrese la solución general de las siguientes ecuaciones diferenciales:

a) y %% − 4y % + 3y % = 1; b) y %% − 6y % + 9y = e2x ;

c) y (iv) − 4y %%% = 5; d) y %% + y % − 2y = 2(1 + x − x2 ).

29. Considérese la ecuación diferencial y %% + R(x)y % + S(x)y = 0. Pruébese que


a) y(x) = x es una solución particular si R + xS = 0.
b) y(x) = ex es una solución particular si 1 + R + S = 0.
c) y(x) = e−x es una solución particular si 1 − R + S = 0.
d) y(x) = emx es una solución particular si m2 + mR + S = 0.
324 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

30. Resuélvanse las siguientes ecuaciones diferenciales:


3 % 3
a) y %% − y + 2 y = 2x − 1.
x x
$ %
2 2
b) y %% − y % + 1 + 2 y = xex .
x x
3 4
c) y %% − (1 + 4ex )y % + 3e2x y = exp 2(x + ex ) .

31. Obténgase la solución de las siguientes sistemas:


     
3 0 0 0 1
d"x(t)  










a) = 0 1 5  "x(t) +  1 ; "x(0) =  0 .
dt      
0 −5 1 sen 5t 1
   
1 0 0 1
d"x(t)    
  
b) =  0 −1 6  "x(t); "x(1) =  1 .
dt    
0 −2 6 1
   
1 0 0 1
d"x(t)  






c) =  0 3 1  "x(t); "x(0) =  1 .
dt    
0 0 3 0
   2   
0 2 −3 t 0
d"x(t) 










d) =  0 −2 4  "x(t) −  0  ; "x(0) =  0 .
dt      
0 1 2 1 0
     
10 4 13 t 0
d"x(t)       
    
e) = 5 3 7  "x(t) +  0  ; "x(0) =  0 .
dt      
−9 −4 −12 0 1

32. Hállese una matriz tal que al exponenciarla nos de la del caso d) en el
problema anterior. Hállese otra cuyo cuadrado sea de nuevo la misma matriz
que aparece en d).
 
17 3 −6
d"x  


33. Resuélvase el sistema =  −4 0 2  "x.
dt  
28 5 −9
8.11. PROBLEMAS 325

L
34. Dada la matriz A(t), se considera la matriz B(t) = A(t)dt y se supone
que estas dos matrices conmutan para todo t. Demuéstrese que eB(t) es una
matriz fundamental del sistema "x% (t) = A(t)"x(t).
35. y (iv) − 3y %%% + 2y %% = 3e−x + 6e2x − 6x.
36. a) y %% + 4y = 12x2 − 16x cos 2x; b) y %% + y = x sen x.
37. y (iv) + 2y %%% − 3y %% = 18x2 + 16xex + 4e3x − 9.
38. Considérese la ecuación diferencial de orden n

p0 (x)y (n) + p1 (x)y (n−1) + . . . + pn−1 (x)y % + pn (x)y = 0.

Sean u1 (x), . . . , un (x) soluciones de la ecuación. El wronskiano del sistema


de soluciones se define ası́
2 2
2 u1 (x) ··· un (x) 2
2 2
2 2
2 u% 1 (x) ··· u n (x) 22
%
2
2 2
W [u1 , . . . , un ] ≡ W (x) = 2 .. .. 2.
2 2
2 . . 2
2 2
2 2
2 u(n−1) (x) . . . u(n−1) (x) 2
1 n

Demuéstrese que el wronskiano verifica: p0 (x)W % (x) + p1 (x)W (x) = 0.


39. Pruébese que si W (x0 ) != 0 para un cierto x0 ∈ (a, b) y si p0 (x) != 0,
∀x ∈ (a, b), entonces W (x) != 0, ∀x ∈ (a, b).
40. Si x1 (t) es solución de x%% + a(t)x% + b(t)x = 0, pruébese que una segunda
solución linealmente independiente es
1 t / 1 z 0 1 t
dz W [x1 (z), x2 (z)]
x2 (t) = x1 (t) exp − a(u)du = x1 (t) dz.
t0 x1 (z) x21 (z)
2
t0 t0

41. Sabiendo que sen x es una solución de y (iv) + 2y %%% + 6y %% + 2y % + 5y = 0,


hállese la solución general.
42. Consideremos la ecuación diferencial y % = a(x)y, donde a(x) es una función
de perı́odo T . Pruébese que la solución verifica y(x + T ) = ekT y(x). De-
termı́nese k.
43. Dado el sistema "x% (t) = A(t)"x(t), t ∈ R, donde A(t + T ) = A(t), ∀t ∈ R,
demuéstrese el teorema de Floquet9 (1883): toda matriz fundamental Ψ(t)
para el sistema periódico puede representarse en la forma Ψ(t) = B(t)etL ,
donde L es una matriz constante y B(t) es una matriz de perı́odo T .
9
Gaston Floquet (1847–1920), matemático francés.
326 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

44. Sean a(t), b(t) funciones de perı́odo T . Sean ψ1 (t), ψ2 (t) soluciones de la
ecuación x%% + a(t)x% + b(t)x = 0, con las condiciones ψ1 (0) = 1, ψ1% (0) = 0,
ψ2 (0) = 0, ψ2% (0) = 1. Pruébese que los multiplicadores son las soluciones
de la ecuación algebraica λ2 − Aλ + B = 0, siendo
) 1 *
T
A = ψ1 (T ) + ψ2% (T ) y B = exp − a(t)dt .
0

; xL + a(t)x<+ b(t)x = 0 el cambio de variable s = F (t),


45. Hágase en la ecuación %% %
t
siendo F % (t) = exp − 0 a(z)dz y t = G(s). Pruébese que ésto transforma
la ecuación en 2
d2 x b(t) 22
+ x(s) = 0.
ds2 (F % (t))2 2t=G(s)

46. Sean a, b constantes reales y p(t) una función real y continua de perı́odo T .
Consideremos la ecuación x%% + [a + bp(t)]x = 0. Sean ψ1 (t), ψ2 (t) como en
el problema anterior. Sea F (a, b) = ψ1 (T ) + ψ2% (T ). Pruébese que:
• Si −2 < F (a, b) < 2, los multiplicadores son complejos conjugados de
módulo unidad y toda solución está uniformemente acotada, ası́ como
su primera derivada, en (−∞, ∞).
• Si F (a, b) > 2 ó F (a, b) < −2, no existen soluciones uniformemente
acotadas en (−∞, ∞).
• Si F (a, b) = 2 hay al menos una solución de perı́odo T y si F (a, b) =
−2, hay al menos una solución de perı́odo 2T .
47. Obténgase la solución general de los sistemas asociados a las matrices:
   
1 −1 1 0 −1 0 1 0
   
 −1 0 1 0   0 0 2 1 
A=  1
. B = 
  1 2
.
 1 1 1   0 0  
0 0 1 −1 0 1 0 1

48. Resuélvase el sistema asociado a las matrices:


 
5 −1 1 1 0 0
 1  
 3 −1 −1 0 0 
 1 1 0 1
   
 0 0 4 0 1 1   1 −2 00 
   .
M=  . N = 
 0
 0 0 4 −1 −1 
  0 0 −1 −1 

 
 0 0 0 0 3 1  1 0 −1 1
0 0 0 0 1 3
8.11. PROBLEMAS 327

49. y (iv) − 5y %%% + 7y %% − 5y % + 6y = 5 sen x − 12 sen 2x.


50. y %% + 6y % + 13y = xe−3x sen 2x + 2xe−2x sen 3x.

51. y (iv) + 3y %%% + 4y %% + 3y % + y = 2xe−x + 3e−x/2 cos( 3x/2).
52. y (iv) − 16y = x2 sen 2x + x4 e2x .
53. y (iv) + 2y %% + y = x2 cos x.
54. y (vi) + 2y (v) + 5y (iv) = x3 + x2 e−x + e−x sen 2x.
√ √ √ √
55. y (iv) + 16y = xex 2 sen x 2 + e−x 2 cos x 2.
56. y (iv) + 3y %% − 4y = cos2 x − cosh x.
57. La ecuación de Schrödinger unidimensional independiente del tiempo, se
escribe
!2 d2 Ψ(x)
− + V (x)Ψ(x) = EΨ(x)
2m dx2
donde ! es la constante de Planck, m la masa, E un parámetro que identi-
ficamos con la energı́a y V el potencial. Resuélvase dicha ecuación cuando
)
0, si x < 0,
V (x) =
V0 , si x ≥ 0,

siendo V0 una constante. Considérense todos los posibles valores positivos


del parámetro E.
NOTA: El teorema de existencia y unicidad es válido para nuestra ecuación
aunque V (x) no es una función continua de x. Ciertamente, si V (x) fuera
continua el teorema serı́a válido, pero ésto es sólo una condición suficiente
para la validez del teorema. Realmente basta con que V (x) sea localmente
integrable, es decir, que su integral extendida a intervalos acotados sea finita.
58. Resuélvanse los siguientes problemas de valores iniciales:

a) x2 y %% − 2xy % − 10y = 0, y(1) = 5, y % (1) = 4.

b) x2 y %% − 5xy % + 8y = 2x3 , y(−2) = 1, y % (−2) = 7.

c) x2 y %% − 6y = ln x, (x > 0), y(1) = 1/6, y % (1) = −1/6.

d) (x + 2)2 y %% − (x + 2)y % − 3y = 0, y(0) = 1, y % (0) = 1.

e) (2x − 3)2 y %% − 6(2x − 3)y % + 12y = 0, y(0) = 1, y % (0) = 0.

59. ( sen 2 x)y %% − 2y % sen x cos x + (cos2 x + 1)y = sen 3 x.


60. y (iv) + y %% = 3x2 + 4 sen x − 2 cos x.
328 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

61. y %%% + 2y %% − 3y % − 10y = 8xe−2x .

62. x2 (x + 3)y %%% − 3x(x + 2)y %% + 6(1 + x)y % − 6y = 0.

63. (x2 + 1)y %% − 2xy % + 2y = 6(x2 + 1)2 .

64. y %% − 2y % + y = xex ln x, (x > 0).

65. y %% − 2y % + y = ln2 x, (x > 0).

66. y %% + 3y % + 2y = (1 + ex )−1 , (x > 0).

67. x2 y %% − x(x + 2)y % + (x + 2)y = x3 .

68. x(x − 2)y %% − (x2 − 2)y % + 2(x − 1)y = 3x2 (x − 2)2 ex .

69. (2x + 1)(x + 1)y %% + 2xy % − 2y = (2x + 1)2 .

70. y %% + y % = (1 + sen x)−1 .

71. Obténgase la solución general de los sistemas asociados a las matrices:


     
1 1 0 1 2 2 1 −3 9
     
     
A= 1 0 1 ; B =  2 0 3  ; C =  0 −5 18  .
     
0 1 1 2 3 0 0 −3 10

72. Encuéntrese la solución general de la ecuación y %% − 2y % + y = xex .

73. Hállese la solución del sistema lineal de segundo orden

"x%% = A "x,

siendo A una matriz constante.

74. Encuéntrese la solución general de la ecuación y %% − 2y % + y = xex .

75. Hállese la solución general de la ecuación

y %%% (x) − 5y %% (x) + 9y % (x) − 5y(x) = 0.

Hállese luego la solución que verifica

y(0) = 0, y % (0) = 1, y %% (0) = 6.

76. Hállese la solución de la ecuación y % + y − y 3 sen x = 0 que verifica y(0) = 2.


8.11. PROBLEMAS 329

77. Dada la ecuación

(2x + 1)(x + 1) y %% + 2x y % − 2y = (2x + 1)2 ,

se desea evaluar su solución general. Para ello se recomienda seguir los


siguientes pasos:
1.– Hallar la solución general de la homogénea, para lo cual es muy útil
encontrar primero una solución particular muy sencilla de la homogénea.
2.– Hallar a continuación la solución particular de la completa según uno de
los métodos tradicionales.
78. Hállese la solución general de la ecuación

y %% (x) + y % (x) − 2y(x) = 2(1 + x − x2 ).

79. Encuéntrese la solución general de la ecuación x2 y %% + 4xy % − 4y = sen(ln x).


80. Hállese la solución general de la ecuación diferencial:

y %% − ay % − a2 y = 0, a ∈ R.

Según los posibles valores del parámetro a, ¿qué soluciones están acotadas
cuando x → +∞?
81. Encuéntrese la solución general de la ecuación y %% + 2y % + y = ex sen 2x.
82. Utilizando el método matricial, determı́nese la solución general del sistema
$ % $ %$ %
d x 0 i x
= .
dt y −i 0 y

Observación: puede verificarse que la solución hallada es la correcta re-


solviendo el sistema de otra manera más directa y sencilla.
83. Hállese la solución de la ecuación diferencial

y (iv) − 16 y = e−x

que verifica las condiciones

y(0) = 0, lim y(x) = 0.


x→∞

84. Usando la transformación de Laplace, evalúese la solución de

d3 y(t)
+ y(t) = 0, y(0) = 1, y % (0) = −1, y %% (0) = 1; y(t < 0) = 0.
dt3
330 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

85. Hállese la solución general del sistema


    
x −2 −2 4 x
d 
y  =  −2 0 2  y .
dt
z −3 −2 5 z

Resuélvase el problema utilizando el método matricial, para lo cual habrá


que calcular la forma de Jordan de la matriz, etc. ¿Cuáles han de ser las
condiciones iniciales de modo que el vector solución tenga su norma acotada
para todo valor del parámetro t?
86. La evolución de un sistema fı́sico con el tiempo viene descrita por el sistema
de ecuaciones diferenciales:
    
x 1 2 2 x
d 
y  =  2 0 3  y .
dt
z 2 3 0 z

Hállese su solución general utilizando el método matricial, para lo cual habrá


que calcular la forma de Jordan de la matriz, etc.
Hállese la solución que para t = 0 toma el valor
   
x(0) 0
 y(0)  =  0  .
z(0) 1

Dése una solución para la cual las componentes del vector no divergen
cuando el tiempo va hacia infinito.
87. Considérese el siguiente sistema de ecuaciones diferenciales con coeficientes
variables
ẋ = (cos t)y , ẏ = (cos t)x.
Encuéntrese la solución que verifica la condición inicial x(0) = 1, y(0) = 0.
Para resolverlo se recomienda:
a) Escribir el sistema en forma matricial.
b) Efectuar una sencilla transformación de la variable independiente para
obtener un sistema de coeficientes constantes.
c) Resolver el sistema de coeficientes constantes anteriormente obtenido us-
ando el método matricial habitual, y no de otra forma.
d) Obtener finalmente la solución x(t), y(t) que verifica las condiciones ini-
ciales exigidas.
88. Hállese la solución general de la siguiente ecuación diferencial, comentando
los aspectos más relevantes del proceso de resolución:

y %% + 4y = 12x2 − 16x cos 2x.


8.11. PROBLEMAS 331

89. Encuéntrese la solución general de la ecuación diferencial:

y %% − 6y % + 9y = xe−3x .

De esa infinidad de soluciones, ¿cuáles están acotadas cuando x → +∞?


90. Encuéntrese la solución general de la ecuación
1 % 1
y %% − y + 3y = 0 .
x2 x

91. Considérese el siguiente sistema de ecuaciones diferenciales con coeficientes


variables:  
−2 2 1
d"x 
t = 0 −3 0  "x.
dt
−1 −2 −4

i) Transfórmese en un sistema con coeficientes constantes y resuélvase éste


haciendo uso de la forma de Jordan de la matriz.
ii) Éste es un paso intermedio para obtener la solución del sistema de coefi-
cientes variables, sujeto a la condición inicial
 
2
"x(t = 1) =  −1  .
−1

Para estar seguro de no haberse equivocado, es conveniente comprobar que la


solución obtenida verifica el sistema y cumple la condición inicial estipulada.
92. Encuéntrese la solución general del siguiente sistema, utilizando para ello la
forma canónica de Jordan de la matriz que aparece en el sistema:
   
2 1 6 1
d"x 
= 0 2 5  "x +  0  .
dt
0 0 2 0

93. Hállese la solución general del sistema


 
1 1 0
d"x 
= 1 0 1  "x.
dt
0 1 1

94. Encuéntrense todas las matrices B de dimensiones n × n y diagonalizables


tales que no exista ninguna matriz A que verifique B = eA .
95. Encuéntrese la solución general de la siguiente ecuación diferencial

y %% − 2y % + y = xex ln x, (x > 0).


332 CAPÍTULO 8. SISTEMAS Y ECUACIONES LINEALES

96. Resuélvase el siguiente sistema: "x% (t) = A "x(t), donde


 
1 −1 −1
A= 1 3 1 .
−3 1 −1

97. Hállese la solución de y %%% − 9y %% + 15y % + 25y = 0 que verifica y(0) = 0 y está
acotada cuando x → ∞.
98. Dada la ecuación y %% + ay % + by = f (x), donde a y b son constantes y f (x)
es una función continua a trozos y de orden exponencial, demuéstrese que
el efecto de substituir f (x) por f (x) + c δ(x) tiene el mismo efecto que
aumentar el valor de y % (0) en la constante c. El mismo resultado es válido
para ecuaciones de orden superior.
99. Siendo A, a, b, c > 0 constantes, considérese el siguiente problema de condi-
ciones iniciales:

y %% + y = A δ(x − c), y(0) = a, y % (0) = b.

¿Existen condiciones bajo las cuales y(x) = 0 para x ≥ c? Dicho de otro


modo: ¿es posible elegir la intensidad y la localización del impulso de forma
que la oscilación se anule completamente?

8.12 Bibliografı́a

Los libros mencionados en el Capı́tulo 6 serán también útiles para el estudio


de este tema. Además los siguientes:

1. Aroca, J.M. y Fernández, M.J., Álgebra Lineal y Geometrı́a, Servicio de


Publicaciones de la Universidad de Valladolid, 1988.
2. Coddington, E.A. and Levinson, N., Theory of Ordinary Differential Equa-
tions, Tata McGraw-Hill 1985.
3. Shilov, G.E., Linear Algebra, Prentice-Hall, 1971.
Capı́tulo 9

SISTEMAS NO LINEALES
Y ECUACIONES
DIFERENCIALES DE
PFAFF

9.1 Introducción

En el capı́tulo precedente hemos realizado un amplio estudio de los sistemas


lineales, tanto homogéneos como no homogéneos, y los hemos relacionado
con las ecuaciones diferenciales lineales de orden n. Ya se comentó que
un detenido análisis de este tipo particular de sistemas y ecuaciones li-
neales está justificado, además de por su interés teórico, por sus muchas
aplicaciones en multitud de campos, debido a que las aproximaciones que
más frecuentemente se efectúan tienden a linealizar el problema que se esté
estudiando, para ası́ poderlo resolver fácilmente.
No obstante, en ciertas ocasiones, y por diferentes motivos (por ejem-
plo, para obtener mayor precisión, o por resultar demasiado groseras cier-
tas simplificaciones), no será posible linealizar las ecuaciones, y deberemos
afrontar el estudio de un sistema no lineal de ecuaciones diferenciales. A
este tipo de sistemas (que aparecen muy frecuentemente al estudiar pro-
blemas de mecánica) dedicaremos el presente capı́tulo. Las técnicas que se
desarrollan en él resultan también de gran utilidad para efectuar el análisis

333
334 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

de las ecuaciones diferenciales en derivadas parciales de primer orden (cuyo


estudio se pospone para el siguiente volumen de esta obra).
Conviene dejar claro que, en la mayor parte de las ocasiones, el análisis
de sistemas o ecuaciones no lineales va a requerir ciertas técnicas que caen
dentro de lo que es un estudio numérico del problema, recurriendo a la uti-
lización de algoritmos que resuelvan las ecuaciones de forma aproximada,
para luego obtener quizá una representación gráfica del resultado. Nosotros
no nos vamos a adentrar en estos métodos de resolución, aunque si quere-
mos indicar al lector que existen multitud de algoritmos y programas muy
eficientes disponibles para resolver situaciones no lineales.
En este capı́tulo tampoco se abordará el análisis de un aspecto funda-
mental y muy intereante de los sistemas y ecuaciones no lineales: el de su
estabilidad. Esta cuestión tiene que ver con el análisis cualitativo de las
ecuaciones diferenciales, que es sumamente adecuado cuando no es posible
encontrar soluciones exactas (lo cual sucede en la amplia mayorı́a de los ca-
sos). El análisis cualitativo de los sistemas y ecuaciones no lineales es una
campo de investigación muy activo cuyo estudio conduce a la aparición de
fenómenos tan llamativos como el caos, los atractores extraños de dimensión
fractal o el efecto mariposa.

9.2 Sistemas de ecuaciones no lineales de primer


orden

Vamos a centrarnos en el estudio de los sistemas de ecuaciones no lineales


de primer orden debido a que, al igual que sucedı́a para los sistemas y
ecuaciones lineales, podemos convertir una ecuación no lineal de orden n,
dada en forma normal, en un sistema no lineal de primer orden, y en general
también lo contrario. Además los sistemas no lineales de primer orden son
los que más frecuentemente aparecen en las aplicaciones.
Consideremos un conjunto de n funciones de la variable real t (a la que
en ocasiones llamaremos “tiempo”, porque en las aplicaciones mecánicas
suele ser éste el significado fı́sico de esta variable)

x1 (t), x2 (t), . . . , xn (t),

que satisfacen un sistema de ecuaciones diferenciales del siguiente tipo


9.2. SISTEMAS NO LINEALES DE PRIMER ORDEN 335

x!1 (t) = f1 (t, x1 , . . . , xn ),


x!2 (t) = f2 (t, x1 , . . . , xn ), (9.2.1)
.. ..
. .
x!n (t) = fn (t, x1 , . . . , xn ),

en el cual las funciones reales fi , i = 1, 2, . . . , n, que dependen de (n + 1)


variables reales, son conocidas y al menos de clase C 1 (D), siendo D es un
dominio de Rn+1 . Las funciones xi (t) son las incógnitas, y una solución
del sistema (9.2.1) es un conjunto de n funciones xi (t), i = 1, 2, . . . , n, que
satisfaga idénticamente el sistema. Éste puede escribirse en forma vectorial
del siguiente modo
"x ! (t) = f"(t, "x), (9.2.2)
siendo
   
x1 (t) f1 (t, x1 , . . . , xn )
   
 x2 (t)   f2 (t, x1 , . . . , xn ) 
   
"x(t) =  . , f"(t, "x) =  .. . (9.2.3)
 ..   . 
   
xn (t) fn (t, x1 , . . . , xn ).

Normalmente se busca una solución que cumpla ciertas condiciones iniciales


" Se suele decir que el sistema anterior tiene orden global n,
"x(τ ) = ξ.
pues como ya hemos comentado es equivalente a una ecuación diferencial
ordinaria de orden n. En efecto, consideremos la siguiente ecuación de
orden superior escrita en forma normal:

dn y(t)
= F (t, y, y ! , y !! , . . . , y (n−1) ). (9.2.4)
dtn
Si definimos las nuevas variables

y1 (t) = y(t),
y2 (t) = y ! (t),
..
.
yn (t) = y (n−1) (t),
336 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

la ecuación (9.2.4) es equivalente al sistema


dy1
= y2 = F1 (t, y1 , y2 , . . . , yn ),
dt
.. ..
. . (9.2.5)
dyn
= F (t, y1 , y2 , . . . , yn ) ≡ Fn (t, y1 , y2 , . . . , yn ).
dt
Al igual que en el caso de los sistemas lineales, existe una correspondencia
biunı́voca entre las soluciones de la ecuación (9.2.4) y las del sistema (9.2.5).
Toda solución del sistema (9.2.5) será de la forma
 
y(t)
 
 y ! (t) 
 
 ..  (9.2.6)
 . 
 
y (n−1) (t)

donde y(t) es una solución de la ecuación (9.2.4). La demostración de estas


afirmaciones es idéntica a la que se hizo en el caso lineal. También puede
probarse que imponiendo ciertas condiciones a las funciones fk (t, x1 , . . . , xn )
que aparecen en (9.2.2), las funciones desconocidas que allı́ aparecen xk (t)
satisfacen ciertas ecuaciones de n-ésimo orden1 .
Hemos considerado con anterioridad los sistemas (9.2.2): aparecieron
cuando enunciamos el teorema de Picard-Lindelöf en el capı́tulo dedicado
a los teoremas de existencia y unicidad de las soluciones. Allı́ indicamos
que las condiciones suficientes para la existencia y unicidad de la solución
de (9.2.2), con las condiciones iniciales indicadas, son:

1. La continuidad de todas las funciones fi (t, x1 , . . . , xn ) en un cierto


entorno de las condiciones iniciales.

2. El cumplimiento de la condición de Lipschitz para cada una de las


funciones fi (t, x1 , . . . , xn ) en sus argumentos xk , k = 1, . . . , n.

Para precisar un poco el lenguaje que usaremos a continuación, intro-


duciremos la siguiente definición.
1
La demostración de esta afirmación no se efectuará aquı́ y puede consultarse en el
libro de Elsgoltz.
9.2. SISTEMAS NO LINEALES DE PRIMER ORDEN 337

Definición 1: la solución del sistema (9.2.2) será, en términos geométricos,


una curva llamada curva integral en el espacio euclı́deo de (n + 1) dimen-
siones, que vendrá descrita por las ecuaciones

t = t, x1 = x1 (t), . . . , xn = xn (t).

Cuando se verifican las condiciones del teorema de existencia y unicidad,


por cada punto de ese espacio pasa una única curva integral. Las curvas
integrales dependen de n parámetros (las condiciones iniciales "x(τ ) = ξ" );
fijadas unas condiciones iniciales, tendremos una curva integral. Obsérvese
que de aquı́ se sigue el teorema de existencia y unicidad de los sistemas
lineales y, “a fortiori”, de las ecuaciones lineales del tipo Ln y(t) = b(t).
Existe otra interpretación que es muy interesante por su relación con
la mecánica, que se puede visualizar de manera simplificada considerando
un punto material de masa m que se mueve a lo largo de una recta. Este
movimiento puede describirse en un espacio de fases de dos dimensiones:
una de ellas nos da la posición de la partı́cula en cada instante x(t), y la
otra su momento m x! (t) (también llamado cantidad de movimiento). Para
mayor sencillez, supongamos también que las fuerzas que actúan sobre nues-
tro punto material son de naturaleza exclusivamente mecánica (es decir, no
hay campos electromagnéticos, por ejemplo) y que su velocidad siempre
será muy pequeña comparada con la velocidad de la luz (para prescindir
de efectos relativistas). Con estas hipótesis, las ecuaciones que rigen la
trayectoria descrita por la partı́cula en el espacio de fases, también llamadas
ecuaciones del movimiento, son las siguientes:
dp dx 1
p! (t) = = f (t, x), x! (t) = = p, (9.2.7)
dt dt m
donde f (t, x) es la fuerza que actúa sobre el punto material cuando se
encuentra situado en la coordenada x en el instante t (la presencia de fuerzas
de naturaleza exclusivamente mecánica hace que f (t, x) no dependa de p;
la hipótesis no relativista nos permite usar de las ecuaciones de Newton, y
no tener que recurrir a la dinámica relativista de Einstein2 ). En notación
2
Albert Einstein (1879–1955), destacado fı́sico teórico alemán, entre cuyos traba-
jos sobresalen la explicación del efecto fotoeléctrico (1905), del movimiento browniano
(descubierto en 1828 por el botánico escocés Robert Brown (1773–1858) al analizar el
movimiento errático e incesante del polen sobre el agua) y, sobre todo, la formulación de
las teorı́as de la relatividad especial (1905) y general (1915). Recibió el premio Nobel de
Fı́sica en 1921 por sus trabajos sobre el efecto fotoeléctrico.
338 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

vectorial, este sistema de ecuaciones se puede escribir como


d"x
"x ! (t) ≡ = f"(t, x, p),
dt
con
9 : 9 : 9 :
x(t) f1 (t, x, p) p(t)/m
"x(t) = , f"(t, x, p) = = .
p(t) f2 (t, x, p) f (t, x)
El teorema de existencia y unicidad de soluciones, aplicado a este caso, nos
dice que si la función f (t, x) es continua en un cierto dominio D ∈ R y
además lipschitziana con respecto a x, entonces dados un valor del tiempo
t0 , un valor de la posición x0 (con (t0 , x0 ) ∈ D) y un valor del momento p0 ,
existe una única solución del sistema
9 : 9 :
x1 (t) x0
"x1 (t) = , tal que "x1 (t0 ) = .
p1 (t) p0
Esto significa que la solución particular de las ecuaciones del movimiento
(9.2.7) verificando la condición inicial de que en el instante t0 el punto
material está en x0 y tiene un momento p0 es justamente "x1 (t). Dos solu-
ciones pueden eventualmente cortarse: sean t0 y t1 dos valores del tiempo
distintos; entonces las soluciones del sistema satisfaciendo las condiciones
iniciales x(t0 ) = x0 , p(t0 ) = p0 y x(t1 ) = x0 , p(t1 ) = p0 , respectivamente,
son diferentes y, sin embargo, tienen el punto (x0 , p0 ) como intersección.
Pero en lugar de considerar el movimiento de la partı́cula en el espacio
de fases (x, p), podemos analizar este movimiento en un espacio de tres
dimensiones (x, p, t). La ecuación del movimiento es ahora
x = x1 (t), p = p1 (t), t = t. (9.2.8)
El teorema de existencia y unicidad de soluciones nos dice que las curvas
de la forma (9.2.8), con x1 (t), p1 (t) soluciones del sistema, nunca pueden
cortarse. En efecto, si dos de tales curvas se cortasen en el punto (x1 , p1 , t1 ),
tendrı́amos dos soluciones del sistema
9 : 9 :
xa (t) xb (t)
"xa (t) = , "xb (t) = ,
pa (t) pb (t)
verificando la misma condición inicial
9 :
x1
"xa (t1 ) = "xb (t1 ) = ,
p1
9.2. SISTEMAS NO LINEALES DE PRIMER ORDEN 339

lo cual está prohibido por el teorema de unicidad. Sin embargo, las solu-
ciones respectivas a la ecuación del movimiento en el espacio de fases, "xa (t)
y "xb (t), sı́ pueden cortarse (véase la Figura 9.1, donde de hecho las dos
curvas no sólo se cortan, sino que coinciden al proyectarlas sobre el espacio
de fases bidimensional). Pero si sucede esto, debe producirse en tiem-
pos distintos, es decir que eventualmente tendrı́amos "xa (ta ) = "xb (tb ), con
ta != tb .

p
x

Figura 9.1: Ejemplo de dos soluciones que no


se cortan en R3 pero cuyas proyecciones en el
espacio de fases R2 coinciden.

Las ideas que acabamos de exponer se puede generalizar de la manera


siguiente: sea "x ! (t) = f"(t, "x), como en (9.2.2), y sea "xa (t) una solución del
sistema
   
x1 (t) x10
 .   . 
 ..  , tal que para t = t0 , "xa (t0 ) = "xa =  ..  .
"xa (t) =    

xn (t) xn0

Escribamos esta solución como una curva integral en Rn+1 de la siguiente


forma
t = t, x1 = x1 (t), . . . , xn = xn (t). (9.2.9)
340 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Por el teorema de unicidad, estas curvas no pueden cortarse, mientras que


sus proyecciones al espacio de las variables xi , las trayectorias en el espacio
de fases, podrı́an eventualmente cortarse a tiempos diferentes (la proyección
de la curva (9.2.9) es justamente la curva en Rn dada por "xa (t)). Véase de
nuevo la Figura 9.1.
Por analogı́a a lo que sucede en el análisis de los sistemas mecánicos
anteriormente comentados, llamaremos espacio de fases al espacio Rn en el
que habitan las soluciones "x(t) del sistema (9.2.2), "x ! (t) = f"(t, "x), que suele
denominarse de forma general sistema dinámico. Como ya se ha comentado
anteriormente, en el caso más general estas soluciones pueden cortarse. No
obstante, existe un tipo de sistemas dinámicos especialmente interesante en
el cual las soluciones no se cortan en el espacio de las fases. Se trata de los
sistemas llamados autónomos, que estudiaremos en la siguiente sección.

9.3 Sistemas autónomos

Definición 2: llamaremos autónomo a un sistema de ecuaciones diferen-


ciales de primer orden del tipo (9.2.1) o (9.2.2) en el que f" no dependa
explı́citamente del tiempo, es decir, f" = f"(x1 , . . . , xn ).
Proposición 1: si "x(t) es una solución del sistema autónomo "x ! (t) = f"("x),
también lo es "y (t) := "x(t + a), donde a es un número real arbitrario.
Demostración:
d"y (t) d"x(t + a) d"x(t + a)
= = = f"(x1 (t + a), . . . , xn (t + a))
dt dt d(t + a)

= f"(y1 (t), . . . , yn (t)) = f"("y ),


de manera que "y (t) satisface idénticamente el sistema.
Observación: las funciones "y (t), "x(t) son distintas y, por lo tanto, repre-
sentan dos soluciones diferentes del sistema. Sin embargo pueden verse
como dos parametrizaciones distintas de la misma curva en Rn . Si con-
sideramos las curvas en Rn+1 , como "y (t) = "x(t + a), resulta que una está
desplazada de la otra en una cantidad a. Una ilustración de este hecho se
muestra en la Figura 9.1.
Proposición 2: si "y (t) y w(t)
" son dos soluciones distintas de un sistema
autónomo, "x ! (t) = f"("x), entonces bien ∃ a ∈ R tal que "y (t + a) = w(t),
"
9.3. SISTEMAS AUTÓNOMOS 341

o bien las curvas en Rn dadas por "y (t) y w(t)


" no tienen ningún punto en
común.
Demostración: acabamos de ver que el primer caso es perfectamente posi-
ble. Supongamos que no se verifica y que "y (t) y w(t) " se cortan. Entonces
existen t0 y t1 para los cuales "y (t0 ) = w(t
" 1 ). Escogiendo b = t0 − t1 , por la
Proposición 1 sabemos que "z (t) = "y (t+b) es una nueva solución del sistema
con
"z (t1 ) = "y (t1 + b) = "y (t0 ) = w(t
" 1 ).
Luego "z (t) y w(t)
" deben de coincidir por el teorema de existencia y unicidad.
Por lo tanto, w(t)
" = "y (t + b) en contra de nuestra hipótesis de que no se
cumplı́a la primera de las posibilidades. Por reducción al absurdo hemos
obtenido que dos soluciones de un sistema autónomo no pueden cortarse,
a no ser que coincidan.
Volvamos sobre el ejemplo mecánico desarrollado en la sección 9.2 para
extraer la siguiente conclusión: si la fuerza que allı́ aparece no depende del
tiempo, las soluciones del sistema dinámico en cuestión son tales que no se
cortan unas a otras en el espacio de fases.
Para ilustrar la diferencia entre los sitemas autónomos y los no autóno-
mos, consideremos un ejemplo de cada uno de ellos.
Ejemplo 1: consideremos el siguiente sistema no autónomo
x1 1
x!1 = + , x!2 = −x22 .
t x1 x2
Es fácil de resolver, porque en la segunda ecuación la variable x2 está
desacoplada, de manera que integrando obtenemos
1
x2 = .
t+C
llevando este resultado a la primera ecuación
x1 t + C x21
x!1 = + ⇒ x1 x!1 = + t + C,
t x1 t
que se convierte en una ecuación lineal mediante el cambio z = x21 , y se
integra dando como resultado final
6 1
x1 = ± Kt2 − 2Ct + 2t2 ln t, x2 = .
t+C
342 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Este par de funciones nos dan las ecuaciones de las curvas integrales en
R3 o de las trayectorias en el plano de fases R2 (bien en paramétricas, con
parámetro t, o bien en implı́citas, ya que en este caso es posible eliminar t
entre las dos ecuaciones solución). Observemos que hay dos posibilidades
para x1 , y también que aparecen dos constantes arbitrarias C y K.
Ejemplo 2: el caso anterior no era autónomo, debido a la presencia
explı́cita de la variable t en las ecuaciones diferenciales. Analicemos ahora
el sistema autónomo que resulta al eliminar el término que contiene t, es
decir
1
x!1 = , x!2 = −x22 .
x1 x2
Procediendo como en el caso anterior, podemos llegar a la siguiente solución:
6 1 1
x1 = ± (t + C)2 + K, x2 = ⇒ x21 = K + .
t+C x22
Observemos aquı́ un hecho destacado: la dependencia en la variable t es tal
que va siempre asociada a una constante arbitraria aditiva (t+C), cosa que
no ocurrı́a para el ejemplo no autónomo. Este hecho es una manifestación
palpable de la Proposición 1 que acabamos de demostrar. Se recomienda al
lector realizar una representación gráfica de las soluciones de este ejemplo,
al menos en el caso particular K = 0 (podrá comprobar entonces que todas
las curvas integrales se proyectan sobre una misma trayectoria en el espacio
de fases, que resulta ser una rama de hipérbola).

9.4 Integrales primeras de un sistema

El concepto de integral primera de un sistema diferencial tiene una gran


importancia tanto desde el punto de vista matemático (ya que desempeña
un papel importante en la teorı́a de las ecuaciones en derivadas parciales)
como por sus aplicaciones en fı́sica, especialmente en mecánica. Es por
tanto conveniente ocuparnos de las integrales primeras con cierto deten-
imiento.

9.4.1 Definición

La integración de un sistema de ecuaciones diferenciales no lineales como el


dado en (9.2.1) suele efectuarse manipulando adecuadamente las ecuaciones
9.4. INTEGRALES PRIMERAS DE UN SISTEMA 343

del sistema para lograr determinar una cierta combinación de algunas de


las variables dependientes en función de t, que se pueda integrar con rela-
tiva facilidad. Se denominan combinaciones integrables a esas ecuaciones
diferenciales obtenidas del sistema diferencial, pero que son integrables de
forma inmediata. Un ejemplo tı́pico serı́a una expresión como
d G(t, x1 , . . . , xn ) = 0.
Una combinación integrable como la anterior permite, por tanto, obtener
una ecuación en forma finita del tipo
G(t, x1 , . . . , xn ) = C,
siendo C una constante arbitraria. Este hecho motiva la siguiente defini-
ción.
Definición 3: llamaremos integral primera de un sistema de ecuaciones
diferenciales a toda función G(t, x1 , . . . , xn ) que toma un valor constante
cuando se sustituyen las variables x1 , . . . , xn por cualquier solución del
sistema x1 (t), . . . , xn (t).

Si la integral primera es tal que G(t, "x) ∈ C 1 (D), siendo D un cierto


dominio de Rn+1 , resulta que a lo largo de cualquier trayectoria
dG ∂G ∂G dx1 ∂G dxn
= + + ··· + = 0,
dt ∂t ∂x1 dt ∂xn dt
es decir,
∂G(t, "x) ∂G(t, "x) ∂G(t, "x)
+ f1 (t, "x) + · · · + fn (t, "x) = 0. (9.4.1)
∂t ∂x1 ∂xn
Cualquier integral primera del sistema (9.2.1) debe verificar esta ecuación
diferencial en derivadas parciales de primer orden, lineal y homogénea,
denominada “ecuación de las integrales primeras” (por desgracia el encon-
trar soluciones de una ecuación de este tipo no suele ser asunto sencillo).
Recı́procamente, si G(t, "x) es una solución de (9.4.1), entonces es una inte-
gral primera de (9.2.1).

9.4.2 Significado geométrico

Si G(t, x1 , x2 , . . . , xn ) es una integral primera del sistema, la ecuación


G(t, x1 , x2 , . . . , xn ) = C (9.4.2)
344 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

representa una hipersuperficie en D ⊂ Rn+1 . Si (t0 , a1 , a2 , . . . , an ) es un


punto cualquiera de esta hipersuperficie, por él pasará una solución del
sistema no lineal, "x(t) = (x1 (t), . . . , xn (t)), que verifica la condición:
G(t, x1 (t), . . . , xn (t)) = G(t0 , a1 , a2 , . . . , an ) = C.
Como G(t, x1 , x2 , . . . , xn ) es una integral primera, la curva integral corres-
pondiente a esta solución estará totalmente contenida en la hipersuper-
ficie (9.4.2). Por el teorema de existencia y unicidad, dos curvas inte-
grales nunca se cortan, de modo que por cada punto de la hipersuperficie
G(t, x1 , x2 , . . . , xn ) = C pasa una y sólo una curva integral del sistema. Por
tanto la hipersuperficie está fibrada por las curvas integrales del sistema,
cuya unión es la propia hipersuperficie.

9.4.3 Independencia funcional

Lo que se pretende con la búsqueda de integrales primeras es hacer más


simple el proceso de integración del sistema no lineal dado. Sucede que
toda función que depende de un cierto número de integrales primeras cono-
cidas es también una integral primera del sistema; sin embargo este tipo
de integrales primeras ligadas entre sı́ por dependencia funcional son, en
general, irrelevantes a la hora de efectuar la integración. Interesan sólo las
integrales primeras que sean funcionalmente independientes.
A continuación enunciamos un resultado importante referente a las in-
tegrales primeras de un sistema diferencial.
Teorema 1: si se verifican las condiciones del teorema de existencia y unici-
dad en torno a un punto (t0 , a1 , a2 , . . . , an ) ∈ D, entonces existen solamente
n integrales primeras funcionalmente independientes, G1 (t, "x), . . . , Gn (t, "x),
en un entorno de (t0 , a1 , a2 , . . . , an ).
Si consiguiéramos obtener n integrales primeras funcionalmente inde-
pendientes podrı́amos plantearnos el siguiente sistema de ecuaciones alge-
braicas:
G1 (t, "x) = C1 , . . . , Gn (t, "x) = Cn . (9.4.3)
Si en este sistema fuéramos capaces de despejar "x en función de t y de
la parámetros C1 , . . . , Cn , podrı́amos conseguir la solución general del sis-
tema "x = "x(t, C1 , . . . , Cn ), al menos en una cierta región del espacio Rn .
Este procedimiento para hallar soluciones del sistema presenta dos graves
dificultades:
9.4. INTEGRALES PRIMERAS DE UN SISTEMA 345

• En la mayorı́a de los casos resulta muy difı́cil obtener de forma explı́ci-


ta el número máximo n de integrales primeras funcionalmente inde-
pendientes.

• Aún cuando consiguiéramos hallarlas, también suele ser muy difı́cil


resolver el sistema (9.4.3), en general no lineal, cuyas incógnitas son
x1 , . . . , xn y cuyas variables son t, C1 , . . . , Cn . La facilidad con la que
resolvemos los sistemas lineales de ecuaciones algebraicas no debe lle-
varnos a engaño: los sistemas no lineales pueden ser muy difı́ciles
de resolver o simplemente no ser resolubles por procedimientos alge-
braicos3 .

Las integrales primeras pueden servir además para otras cosas, como por
ejemplo reducir el número de ecuaciones diferenciales del sistema. Pero
también pueden tener un significado fı́sico en sistemas mecánicos. De todo
esto hablaremos en el siguiente apartado.

9.4.4 Aplicaciones

Vamos a precisar mejor ahora lo comentado al final de la sección anterior.


Algunas de las utilidades que presentan las integrales primeras son las si-
guientes:

a1) Si podemos determinar una integral primera G1 (t, x1 , . . . , xn ) = C1 ,


serı́a posible reducir en una unidad el grado del sistema: de la anterior
ecuación podrı́amos intentar despejar una de las variables (suponga-
mos que fuera x1 ) en función de las otras x1 (t) = ψi (t, x2 , . . . , xn ), de
manera que, sustituyendo en el sistema, pasarı́amos a tener sólo n − 1
ecuaciones diferenciales

x!i (t) = fi (t, ψi (t, x2 , . . . , xn ), x2 , . . . , xn ), i = 2, . . . , n.

a2) Extendiendo el resultado precedente, si conocemos p < n integrales


primeras funcionalmente independientes, podrı́amos reducir el núme-
ro de ecuaciones del sistema a n − p. Supongamos que tenemos las
3
Imagı́nese un sistema formado por una sola ecuación polinómica de quinto grado
x + ax4 + bx3 + cx2 + rx + s = 0. Sabemos que, en general, esta ecuación no admite
5

una fórmula que nos de las soluciones, contrariamente a lo que sucede con las ecuaciones
de grado inferior a cinco.
346 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

siguientes integrales primeras:

G1 (t, x1 , . . . , xn ) = C1 ,
.. ..
. .
Gp (t, x1 , . . . , xn ) = Cp .

Si todas ellas son funcionalmente independientes en una cierta región


de Rn+1 , significa que al menos uno de los determinantes jacobianos
$ %
∂(G1 , G2 , . . . , Gp )
det != 0,
∂(xj1 , xj2 , . . . , xjp )

donde xj1 , . . . , xjp son p funciones cualesquiera de entre x1 , . . . , xn .


Siempre podemos reordenar las variables de manera que tengamos
$ %
∂(G1 , G2 , . . . , Gp )
J = det != 0.
∂(x1 , x2 , . . . , xp )

Si J != 0 en un cierto punto (t0 , a1 , . . . , an ) ∈ D, por continuidad


J ha de ser distinto de cero en un cierto entorno de dicho punto.
Consideremos las funciones

G1 (t, x1 , . . . , xn ) = G1 (t0 , a1 , . . . , an ),
.. ..
. . (9.4.4)
Gp (t, x1 , . . . , xn ) = Gp (t0 , a1 , . . . , an ).

Por el teorema de las funciones implı́citas4 , sabemos que (9.4.4) nos


proporciona, de manera única, las primeras p variables xk en términos
de las (n − p) restantes, es decir:

x1 = ϕ1 (t, xp+1 , . . . , xn ),
.. ..
. . (9.4.5)
xp = ϕp (t, xp+1 , . . . , xn ).

Para resolver el sistema (9.2.1) bastará resolver sus (n − p) últimas


ecuaciones, que teniendo en cuenta todo lo comentado anteriormente,
4
Véase el libro de Burkill & Burkill.
9.4. INTEGRALES PRIMERAS DE UN SISTEMA 347

podemos escribir ası́:

x!p+1 (t) = fp+1 (t, ϕ1 , . . . , ϕp , xp+1 , . . . , xn ),


x!p+2 (t) = fp+2 (t, ϕ1 , . . . , ϕp , xp+1 , . . . , xn ), (9.4.6)
··· ··· ··· ···
x!n (t) = fn (t, ϕ1 , . . . , ϕp , xp+1 , . . . , xn ).

Como ϕ1 , ϕ2 , . . . , ϕp son funciones conocidas de xp+1 , . . . , xn , resulta


que hemos reducido nuestro sistema original a un sistema de (n − p)
ecuaciones con el mismo número de incógnitas y cuya solución, junto
con (9.4.5), nos determina la solución del sistema original.

a3) Finalmente, y como un corolario del apartado a2), si lográsemos


conocer n integrales primeras funcionalmente independientes del sis-
tema, podrı́amos resolverlo completamente. Para demostrar esta afir-
mación, supongamos que, en un entorno de (t0 , a1 , a2 , . . . , an ) ∈ D,
hemos encontrado n integrales primeras G1 (t, "x), . . . , Gn (t, "x). Cada
una de ellas representa, como hemos visto, una hipersuperficie. Con-
sideremos ahora las n hipersuperficies en D:

G1 (t, x1 , . . . , xn ) = G1 (t0 , a1 , . . . , an ) = C1 ,
.. .. ..
. . . (9.4.7)
Gn (t, x1 , . . . , xn ) = Gn (t0 , a1 , . . . , an ) = Cn .

Si estas integrales primeras son funcionalmente independientes, en-


tonces el determinante jacobiano
$ %
∂Gi
det != 0.
∂xj

Utilizando el teorema de la función inversa, podemos encontrar n


funciones de la variable t,

x1 = x1 (t, C1 , C2 , . . . , Cn ), . . . , xn = xn (t, C1 , C2 , . . . , Cn ),

tales que cada una de ellas verifica xi (t0 , C1 , C2 , . . . , Cn ) = ai . Estas


funciones nos dan la solución del sistema que cumple las condiciones
iniciales xi (t0 ) = ai , i = 1, 2, . . . , n. En efecto:
348 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

1. El punto (t0 , a1 , a2 , . . . , an ) está en la intersección de las hiper-


superficies (9.4.7).
2. La curva integral que pasa por este punto debe de estar en todas
las hipersuperficies que lo contienen, ası́ que estará contenida en
su intersección.
3. La curva

{t = t; x1 = x1 (t, C1 , . . . , Cn ); . . . ; xn = xn (t, C1 , . . . , Cn )},

obtenida por el teorema de la función inversa, debe de ser la


intersección de estas hipersuperficies. Como la intersección es
una curva en Rn+1 , ésta debe de coincidir con la curva integral.

Podemos repetir este procedimiento para todos los puntos de D.

b) En sistemas mecánicos no relativistas, las integrales primeras repre-


sentan constantes del movimiento o leyes de conservación; son canti-
dades que permanecen constantes a lo largo del movimiento del sis-
tema.
Para ilustrar esta afirmación consideremos de nuevo el sistema mecá-
nico unidimensional (9.2.7). Vamos a suponer que la fuerza no de-
pende del tiempo, de manera que f (t, x) = f (x). Consideremos ahora
la función5 1 x
V (x) := − f (x) dx, (9.4.8)
a

donde la constante a ∈ R es arbitraria. Obviamente V (x) no está


definida de manera única, pues depende de a, pero al cambiar a mo-
dificaremos V (x) únicamente en una constante aditiva. Pretendemos
demostrar que, para cualquier elección de a, la función

p2
+ V (x) (9.4.9)
2m
es independiente de t, es decir, es constante cuando reemplazamos x
y p en (9.4.9) por una solución "x(t) = (x(t), p(t)) del sistema (9.2.7).
De aquı́ se seguirı́a que (9.4.9) es una integral primera del sistema.
La demostración es la siguiente: reemplazando en (9.4.9) el par (x, p)
5
Suponemos que f (x) es localmente integrable, es decir, es integrable en todo com-
pacto de R .
9.4. INTEGRALES PRIMERAS DE UN SISTEMA 349

por las componentes x(t) y p(t) de la solución "x(t) del sistema, y


derivando respecto del tiempo se tiene
p(t) ! dV (x) !
p (t) + x (t). (9.4.10)
m dx
Como p! (t) = f (x), x! (t) = p(t)/m y además de (9.4.8) se tiene que
dV /dx = f (x), resulta que el valor de (9.4.10) es cero y por lo tanto
(9.4.9) es constante. El valor de esa constante es fácil de determinar,
ya que si en el instante t0 los valores de la posición y del momento
son x0 y p0 , entonces
p2 p2
+ V (x) = 0 + V (x0 ).
2m 2m
Esta integral primera se denomina la energı́a del sistema, siendo V (x)
la energı́a potencial.

9.4.5 Forma canónica del sistema

Hemos comentado el interés que presentan las integrales primeras, pero no


hemos discutido cómo determinar las posibles combinaciones integrables
que nos pueden permitir obtener esas funciones. Pues bien, para hallar
las combinaciones integrables, suele resultar conveniente escribir el sistema
(9.2.1) en una forma más simétrica de la siguiente manera: la ecuación
i-ésima puede ponerse en la forma
dxi
dt = ,
fi (t, x1 , x2 , . . . , xn )
con lo que el sistema se puede escribir
dx1 dxn
dt = = ... = . (9.4.11)
f1 (t, x1 , x2 , . . . , xn ) fn (t, x1 , x2 , . . . , xn )
Introduciendo nuevas funciones φk relacionadas con las fk por
φk (t, x1 , . . . , xn )
fk (t, x1 , . . . , xn ) = , (9.4.12)
φ0 (t, x1 , . . . , xn )
el sistema puede escribirse más simétricamente como sigue:
dt dx1 dxn
= = ... = . (9.4.13)
φ0 (t, x1 , . . . , xn ) φ1 (t, x1 , . . . , xn ) φn (t, x1 , . . . , xn )
350 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Obsérvese que si G(t, x1 , . . . , xn ) es una integral primera del sistema, la


ecuación de las integrales primeras (9.4.1) se escribirı́a con la nueva notación
que acabamos de introducir

∂G ∂G ∂G
φ0 + φ1 + · · · + φn = 0. (9.4.14)
∂t ∂x1 ∂xn

Tanto (9.4.11) como (9.4.13) son las formas llamadas canónicas de es-
cribir el sistema. De este modo todas las variables son equivalentes, lo que
suele facilitar la búsqueda de integrales primeras. El análisis de las ecua-
ciones escritas en esta forma nos lleva de modo natural a considerar las
llamadas ecuaciones en diferenciales totales o de Pfaff6 .

9.5 Ecuaciones en diferenciales totales o de Pfaff

En primer lugar, vamos a ampliar las ideas que se introdujeron al estu-


diar las ecuaciones diferenciales exactas en la sección 6.3.9, donde ya tuvi-
mos ocasión de definir el concepto de forma diferencial o 1-forma, aunque
únicamente restringido a dos variables.

9.5.1 Definiciones

Definición 4: sea D un dominio en Rm y sean fi (x1 , . . . , xm ), i = 1, . . . , m,


funciones reales de variable real definidas en D. Llamaremos forma dife-
rencial de Pfaff, o 1-forma, a una expresión del tipo

ω = f1 (x1 , . . . , xm ) dx1 + . . . + fm (x1 , . . . , xm ) dxm . (9.5.1)

Definición 5: llamaremos ecuación diferencial en diferenciales totales o


ecuación diferencial de Pfaff asociada a la forma ω a la ecuación diferencial
ω = 0.

Obsérvese que, mientras en una forma de Pfaff las m variables xi son


independientes, en la correspondiente ecuación no lo son, ya que la propia
ecuación establece una relación entre ellas.
6
Johann Friedrich Pfaff (1765–1825), matemático alemán que fue maestro de Gauss.
9.5. ECUACIONES DE PFAFF 351

Definición 6: diremos que la forma ω es exacta si existe una función


U (x1 , . . . , xm ) de Rm en R tal que dU = ω.
Definición 7: la forma ω es integrable si existe una función µ(x1 , . . . , xm ),
llamada factor integrante, tal que la forma µ ω := µf1 dx1 + . . . + µfm dxm
es exacta.
Cuando la forma ω sea exacta o integrable, y sólo cuando estamos ante
una de estas dos situaciones, la ecuación diferencial ω = 0 se dice que es in-
tegrable. Obviamente toda forma exacta es integrable con factor integrante
igual a uno.
Definición 8: supongamos que la forma diferencial ω es integrable, y sea
µ su factor integrante; entonces existe una función U , llamada la función
potencial, tal que dU = µω. En este caso,

∂U
= µfi , i = 1, 2, . . . , m,
∂xi

la ecuación diferencial puede ponerse bajo la forma dU (x1 , . . . , xm ) = 0,


y su solución general es U (x1 , . . . , xm ) = C, siendo C una constante arbi-
traria. De esto deducimos que las soluciones de la ecuación de Pfaff ω = 0,
siempre que sea integrable, son hipersuperficies contenidas en un dominio
de D ∈ Rm . Pero U (x1 , x2 , . . . , xm ) = C puede verse también como una
expresión que nos proporciona una relación implı́cita entre x1 , x2 , . . . , xm .

9.5.2 Aplicación a las integrales primeras: método de los


multiplicadores

Sea D un dominio en Rn+1 y sean Mi (t, x1 , . . . , xn ), i = 0, 1, 2, . . . , n, fun-


ciones reales en C 1 (D).
Definición 9: diremos que las funciones Mi constituyen un sistema de
multiplicadores factores integrantes del sistema escrito en la forma canónica
(9.4.13) si y sólo si
Sn
1. M0 φ0 + k=1 Mk φk = 0, ∀ (t, x1 , . . . , xn ) ∈ D.

2. La forma de Pfaff M0 dt + M1 dx1 + . . . + Mn dxn es exacta.

La utilidad de estos multiplicadores surge del siguiente resultado.


352 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Teorema 2: supongamos que tenemos un sistema de multiplicadores fac-


tores integrantes M0 , M1 , . . . , Mn para el sistema (9.4.13). Toda función
G(t, x1 , . . . , xn ) de Rn+1 en R tal que
n
&
dG = M0 dt + Mk dxk (9.5.2)
k=1

es una integral primera del sistema.


Demostración: sea {t = t; x1 = x1 (t); . . . ; xn = xn (t)} una ecuación en paramétricas
de una curva integral arbitraria. Usando (9.5.2), tenemos que a lo largo de dicha curva
n n n
dG ∂G & ∂G dxk & &
= + = M0 + Mk x$k (t) = M0 + Mk fk . (9.5.3)
dt ∂t ∂xk dt
k=1 k=1 k=1

La última igualdad es debida a que las n últimas expresiones que definen una curva
integral son las ecuaciones de una solución del sistema. Usando (9.4.12) tenemos

φk (t, x1 , . . . , xn )
x$k (t) = fk (t, x1 , . . . , xn ) = ,
φ0 (t, x1 , . . . , xn )

con lo que (9.5.3) queda convertida en

dG φ0 φ1 φn
= M0 + M1 + . . . + Mn = 0,
dt φ0 φ0 φ0
debido a la definición de sistema de multiplicadores. Esto significa que la derivada total
de G a lo largo de la curva es nula, lo que implica que

G(t, x1 (t), . . . , xn (t)) = C = constante.

Como estamos trabajando con una curva integral arbitraria, este resultado significa que
G(t, x1 , . . . , xn ) es una integral primera de nuestro sistema.

9.6 Métodos de resolución de ecuaciones de Pfaff

9.6.1 Generalidades

Este tipo de ecuaciones son de gran interés, y en particular surgen en Ter-


modinámica7 . Para ver un ejemplo tı́pico en este campo, consideremos un
sistema aislado del medio exterior (con una única componente, para sim-
plificar). La ecuación fundamental del sistema relaciona su energı́a interna
7
Puede consultarse el libro de F. Tejerina citado en la bibliografı́a
9.6. MÉTODOS DE RESOLUCIÓN DE EC. DE PFAFF 353

(U ) con las variables extensivas fundamentales: entropı́a (S), volumen (V )


y número de moles (N ):
U = U (S, V, N ).
A menudo esta función es desconocida, pero se conocen otras caracterı́sticas
del sistema (las variables intensivas).indexvariables intensivas Como el sis-
tema es cerrado, cualquier evolución del mismo estará caracterizado por

dU (S, V, N ) = 0.

Esta ecuación nos lleva a


∂U ∂U ∂U
dS + dV + dN = 0. (9.6.1)
∂S ∂V ∂N
Las derivadas parciales en esta expresión son funciones de S, V N . Es
sabido que:
2
∂U 22
= T,
∂S 2V,N =ctes.
2
∂U 22
= −P,
∂V 2S,N =ctes.
2
∂U 22
= µ,
∂N 2S,V =ctes.

donde T es la temperatura, P es la presión y µ es el potencial quı́mico, que


son las llamadas variables intensivas. Conocidas las funciones T (S, V, N ),
P (S, V, N ) y µ(S, V, N ) podemos resolver la ecuación (9.6.1). Si el valor de
la energı́a interna del sistema dado es U0 , y la solución general del sistema
es U (S, V, N ) = C, entonces la ecuación

U (S, V, N ) = U0

es una superficie en R3 y representa el espacio de fases del sistema ter-


modinámico.
La ecuación (9.6.1) es del tipo de las que estamos analizando, pero es
tan sólo un ejemplo de las muchas ecuaciones de este tipo que aparecen al
estudiar diversos fenómenos fı́sicos. El estudio de estas ecuaciones de Pfaff
está ı́ntimamente ligado al de los sistemas no lineales de primer orden, como
veremos a lo largo de esta sección (esta relación puede ya intuirse tras la
lectura del apartado 9.4.5).
354 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

En principio nos centraremos en el estudio de ecuaciones con tres varia-


bles, ya que son éstas las que más aparecen en la práctica, del tipo

P (x, y, z) dx + Q(x, y, z) dy + R(x, y, z) dz = 0, (9.6.2)

donde P , Q y R son tres funciones de clase C 1 (D) en un cierto dominio


D ⊂ R3 . Consideremos el campo vectorial en D dado por X " = (P, Q, R),
y denotemos por d"r = (dx, dy, dz). Una forma equivalente de escribir la
" · d"r = 0 (no hacemos aquı́ distincion entre vectores
ecuación (9.6.2) es X
fila y vectores columna al hacer el producto escalar ya que la notación no
es equı́voca).
Lema 1: sea µ(x, y, z) una función diferenciable en D distinta de cero en
todos los puntos de dicho dominio. Entonces X " · rot X
" != 0 si y sólo si
" "
(µ X) · rot (µ X) != 0.
Demostración: en la ecuación anterior rot representa el rotacional. Un
cálculo rutinario nos permite probar que

" · rot (µ X)
(µ X) " = (µ X)
" · (µ rot X
" + (grad µ) × X)
" = µ2 X
" · rot X.
"

" · rot X
De aquı́ se sigue también que X " = 0 si y solamente si

" · rot (µ X)
(µ X) " = 0.

Esta versión del lema es la que vamos a utilizar en la demostración del


siguiente resultado.
Teorema 3: la condición necesaria y suficiente para que la ecuación dife-
" · d"r = 0 sea
rencial de Pfaff P (x, y, z) dx + Q(x, y, z) dy + R(x, y, z) dz = X
integrable es que se verifique

" · rot X
X " = 0. (9.6.3)

Demostración8 : a) si la ecuación de Pfaff es integrable, entonces existe un factor inte-


grante µ, al que supondremos siempre distinto de cero en todos los puntos del dominio
D, y una función de clase C 2 (D), F (x, y, z), tal que
∂F ∂F ∂F
= µP; = µ Q; = µ R.
∂x ∂y ∂z
8
Con el fin de no recargar demasiado la la demostración, vamos a pasar por alto
algunos detalles finos.
9.6. MÉTODOS DE RESOLUCIÓN DE EC. DE PFAFF 355

Estas ecuaciones pueden escribirse de la siguiente manera grad F = µ X. + De aquı́ resulta


que rot (µX)+ = rot (grad F ) = 0 ⇒ (µX) + · (rot (µ X)
+ =0⇒X + · rot X
+ = 0. Esta última
implicación es consecuencia del lema.
b) Veamos el recı́proco. Supongamos que se verifica que X + · rot X+ = 0 en un cierto
dominio contenido en D (que bien pudiera ser el propio D). Consideremos la ecuación
P dx+Q dy+R dz = 0 y hagamos z constante. Entonces, para cada valor de z, obtenemos
una ecuación diferencial en diferenciales totales y dos variables. De esta manera, tenemos
la siguiente familia9 de ecuaciones, indiciada mediante el parámetro z:

P (x, y, z) dx + Q(x, y, z) dy = 0. (9.6.4)

Como todas estas ecuaciones son ecuaciones de Pfaff en dos variables, admitirán factor
integrante. De esta manera, para cada valor de z existe una función µz (x, y) cumpliendo
este papel. Pongamos µz (x, y) = µ(x, y, z), teniendo muy presente que µ(x, y, z) repre-
senta una familia de funciones en x e y indiciada mediante el parámetro z. Igualmente,
para cada valor de z, existe la función potencial Uz (x, y) = U (x, y, z). Para cada una
de las ecuaciones (9.6.4) hemos obtenido su solución general dada por U (x, y, z) = C.
Entonces podemos escribir
∂U ∂U
= µP ; = µQ.
∂x ∂y
Escribamos ahora la ecuación (9.6.2) de la siguiente manera:
$ %
∂U ∂U ∂U ∂U
0 = µP dx + µQ dy + µR dz = dx + dy + dz + µR − dz,
∂x ∂y ∂z ∂z
o lo que es lo mismo dU + K dz = 0, donde K es la función
∂U
K = µR − .
∂z
Como X + · rot X
+ = 0, el lema nos dice que esto es posible si y sólo si (µX)
+ · rot (µX)
+ = 0.
Partiendo de esta idea, escribamos:
$ %
+ = (µP, µQ, µR) = ∂U ∂U ∂U
µX , ,K + = grad U + (0, 0, K).
∂x ∂y ∂z
Operando
2 2
2 +i +j +k 22
2 $ %
2 2 ∂K ∂K
+
rot (µX) = rot (0, 0, K) = 22 ∂x
∂ ∂ ∂ 2= ,− ,0 ,
∂y ∂z2 ∂y ∂x
2 2
2 0 0 K 2

de donde
(µX) + = ∂U ∂K − ∂U ∂K = 0.
+ · rot (µX) (9.6.5)
∂x ∂y ∂y ∂x
9
El término “familia” significa que estas ecuaciones no forman un sistema. La dife-
rencia consiste en que en un sistema las mismas soluciones han de verificar todas las
ecuaciones del mismo. En una familia cada solución satisface su ecuación y nada más.
356 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

La ecuación (9.6.5) nos dice que el jacobiano


2 2
2 ∂x U ∂x K 22
∂(U, K) 2
=2 2
∂(x, y) 2 ∂y U ∂y K 2

se anula. Esto quiere decir que, en una cierta región, las funciones U y K son funcional-
mente dependientes, en el sentido siguiente: para cada z existe una relación funcional
entre ambas, es decir, K = Fz (U ). En el mismo sentido que anteriormente podemos
escribir que K = F (U, z). De esta manera, la ecuación dU + K dz = 0 puede ponerse
como:
dU
+ F (U, z) = 0. (9.6.6)
dz
Si F es suficientemente regular, existen soluciones a esta ecuación diferencial. Sea
ϕ(U, z) = C su integral general. Como (9.6.6) y (9.6.2) son equivalentes, resulta que
ϕ(U (x, y, z), z) = C es una familia de soluciones a nuestra ecuación de Pfaff original.

Ejemplo 3: vamos a mostrar como la demostración anterior puede en


algunos casos servir para la resolución de la ecuación diferencial. Tomemos
la ecuación

(y 2 + yz) dx + (xz + z 2 ) dy + (y 2 − xy) dz = 0.

Aquı́

" = (y 2 + yz, xz + z 2 , y 2 − xy),


X " = (x − y − z, y, −y).
rot X

" · rot X
De esta manera, X " = 0. Considerando z como un parámetro se
obtiene:
(y 2 + yz) dx + (xz + z 2 ) dy = 0.
Un factor integrante y una función potencial son en este caso:

1 y(x + z)
µ= , U (x, y, z) = .
(y + z)2 y+z

Por otro lado


∂U
K = µR − = 0,
∂z
lo que implica que la ecuación de partida puede ponerse como dU = 0, cuya
solución general es U = C, y por consiguiente, la solución es

y(x + z)
= C.
y+z
9.6. MÉTODOS DE RESOLUCIÓN DE EC. DE PFAFF 357

9.6.2 Casos especiales

Pasemos ahora a analizar ciertos casos particulares en los cuales podemos


resolver ecuaciones diferenciales de Pfaff. Una sugerencia previa: lo primero
que conviene hacer es comprobar si la ecuación diferencial es inte-
grable, es decir, verificar que se cumple (9.6.3). Si no ocurre esto, es inútil
malgastar esfuerzos tratando de hallar una solución que no existe. Algunas
ecuaciones tı́picas que suelen aparecer en las aplicaciones son las siguientes:

1. Si la ecuación presenta sus variables separadas

P (x) dx + Q(y) dy + R(z) dz = 0,

verifica la condición de integrabilidad y su solución general no puede


ser otra que
1 1 1
P (x) dx + Q(y) dy + R(z) dz = C.

" = 0, entonces X
2. Si rot X " = grad U , y la forma diferencial de Pfaff
correspondiente a esta ecuación es exacta, siendo U su función poten-
cial. De esta manera
∂U ∂U ∂U
= P; = Q; = R,
∂x ∂y ∂z
y la obtención de U es trivial.

3. Si tenemos una variable separada, por ejemplo z, será


" = (P (x, y), Q(x, y), R(z)),
X

con lo que
$ % $ %
" = ∂Q ∂P " · rot X
" =R ∂Q ∂P
rot X 0, 0, − =⇒ X − ,
∂x ∂y ∂x ∂y
que ha de ser cero si queremos que sea integrable. En estas circuns-
tancias, si en un punto R != 0, por continuidad R != 0 en un cierto
entorno de dicho punto, en el cual la condición de integrabilidad será
∂Q ∂P
− = 0. (9.6.7)
∂x ∂y
358 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Esto quiere decir que, en dicho entorno la forma

ω = P (x, y) dx + Q(x, y) dy

es exacta, y por lo tanto existe una función potencial U (x, y) tal que
dU = P dx + Q dy. De esta manera, la ecuación original toma la
forma dU + R(z) dz = 0, que una vez integrada da:
1
U (x, y) + R(z) dz = C.

Si, por el contrario, la ecuación (9.6.7) no se verificase en un cierto


abierto, para que la ecuación fuese integrable en dicho abierto deberı́a
cumplirse R(z) ≡ 0, con lo cual tendrı́amos una ecuación en dos va-
riables que no serı́a exacta, pero de la que se podrı́a buscar un factor
integrante.

4. Supongamos que P , Q y R son homogéneas del mismo grado n con


respecto a sus tres variables. De esta manera,

P (λx, λy, λz) = λn P (x, y, z),

y lo mismo para Q y R. Para resolver este tipo de ecuaciones, hacemos


el siguiente cambio de variables:

y = ux ⇒ dy = u dx + x du; z = vx ⇒ dz = v dx + x dv.

De esta manera nuestra ecuación diferencial queda transformada en

P (x, ux, vx) dx + Q(x, ux, vx)(u dx + x du)


+ R(x, ux, vx)(v dx + x dv) = 0.

Utilizando a propiedad de homogeneidad de las funciones P , Q y R:

xn [P (1, u, v) dx + Q(1, u, v)(u dx + x du) + R(1, u, v)(v dx + x dv)] = 0.


(9.6.8)
Definiendo ahora las funciones
Q(1, u, v)
A(u, v) = ,
P (1, u, v) + uQ(1, u, v) + vR(1, u, v)
R(1, u, v)
B(u, v) = ,
P (1, u, v) + uQ(1, u, v) + vR(1, u, v)
9.6. MÉTODOS DE RESOLUCIÓN DE EC. DE PFAFF 359

la ecuación (9.6.8) queda convertida en

dx
+ A(u, v) du + B(u, v) dv = 0,
x
que tiene la variable x separada (caso estudiado anteriormente).

5. Una manera frecuente de resolver la ecuación diferencial

P (x, y, z) dx + Q(x, y, z) dy + R(x, y, z) dz = 0 (9.6.9)

es la siguiente: tras comprobar que es integrable, fijamos un valor


particular de z (podrı́a elegirse otra de las variables). Esto nos
transforma la ecuación original en una familia de ecuaciones difer-
enciales de dos variables P dx + Q dy = 0. Para cada valor de z
podemos obtener una función potencial U (x, y, z) = C(z), siendo la
constante arbitraria en este caso función del parámetro z. Elegimos
C(z) de forma que se satisfaga (9.6.9), lo que conseguimos diferen-
ciando U (x, y, z) = C(z) e igualando el resultado a (9.6.9). Se obtiene
ası́ una ecuación diferencial de primer orden que ha de satisfacer C(z)
y que habrá que resolver (a veces el método no es aplicable y no nos
permitirá hallar la solución; este hecho puede manifestarse en la ob-
tención para C(z) de una ecuación diferencial que depende además
de x ó y). El fundamento de este método se basa en la demostración
del teorema 3.

6. Método de Natani. Es una variante del método anterior. Una vez cal-
culada la función potencial U (x, y, z) = C(z), el problema es evaluar
C(z). Este método consiste en fijar un valor numérico concreto de x (o
de y, según convenga), llamémosle α. Tendremos U (α, y, z) = C(z),
pero además Q(α, y, z) dy + R(α, y, z) dz = 0, cuya integración nos
dará una relación V (y, z) = K. Eliminando y entre el par de ecua-
ciones U (α, y, z) = C(z), V (y, z) = K, podremos obtener en algunas
ocasiones la forma explı́cita de C(z), y el problema estarı́a resuelto.

7. Método de Mayer10 . Supongamos que podemos escribir nuestra ecua-


ción en la forma

dz = A(x, y, z) dx + B(x, y, z) dy, (9.6.10)


10
Christian Gustav Adolph Mayer (1839–1907), matemático alemán.
360 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

y que, además es integrable. Sea µ(x, y, z) el factor integrante. La


ecuación (9.6.10) se podrá expresar de la siguiente manera:

µ(x, y, z)A(x, y, z) dx + µ(x, y, z)B(x, y, z) dy − µ(x, y, z) dz = 0.

Sea U (x, y, z) la correspondiente función potencial. Como

∂z U = −µ != 0,

podemos despejar z en U (x, y, z) = C, de manera que las soluciones


de la ecuación (9.6.10) pueden ponerse en la forma z = ϕ(x, y).
Por otro lado, por cada punto (x0 , y0 , z0 ) de la región de R3 en la que
están definidas las soluciones de (9.6.10) pasará una solución única,
caracterizada por U (x, y, z) = U (x0 , y0 , z0 ). Nuestro objetivo es pre-
cisamente encontrar la solución que pasa por dicho punto. Con este
fin, seccionaremos la superficie solución buscada por el haz de planos
paralelos al eje z que pasen precisamente por el punto (x0 , y0 , z0 ).
Cada uno de estos planos cortará a la superficie solución a lo largo
de una curva. El lugar geométrico de todas estas curvas, es decir
su unión, será la solución buscada. Consideremos entonces el haz de
planos que hemos dicho:

y − y0 = m(x − x0 ), dy = m dx,

donde m es una constante arbitraria. Sustituyendo esto en la ecuación


diferencial, resulta:

dz = A(x, y0 + m(x − x0 ), z) dx + B(x, y0 + m(x − x0 ), z) m dx.

En esta ecuación diferencial aparecen sólo dos variables; la solución


que pasa por el punto (x0 , y0 , z0 ) nos da la intersección de la superficie
solución buscada con el plano del haz caracterizado por la constante
m. Esta solución es de la forma z = ϕ(x, m, z0 ) con z0 = ϕ(x0 , m, z0 ).
La superficie pedida se obtiene eliminando m entre

z = ϕ(x, m, z0 ), y = y0 + m(x − x0 ),

lo que nos da como solución:


$ %
y − y0
z = ϕ x, , z0 .
x − x0
9.6. MÉTODOS DE RESOLUCIÓN DE EC. DE PFAFF 361

8. Método de Bertrand11 . Como es ya habitual, vamos a considerar la


ecuación en diferenciales totales

P (x, y, z) dx + Q(x, y, z) dy + R(x, y, z) dz = 0,

verificando las siguientes condiciones:


" · rot X
1.– X " = 0 (condición de integrabilidad), que se escribe

P (Qz − Ry ) + Q(Rx − Pz ) + R(Py − Qx ) = 0. (9.6.11)

" != 0 (factor integrante distinto de la unidad, es decir,


2.– rot X
integrabilidad no trivial).

Este método de integración consiste en determinar cuatro funciones,


que llamaremos A(x, y, z), B(x, y, z), a(x, y, z) y b(x, y, z), tales que:

a.– A(x, y, z) ≡ A(a, b), B(x, y, z) ≡ B(a, b), es decir, A y B pueden


ponerse como funciones de a(x, y, z) y b(x, y, z).
b.– Se verifique además que

P dx + Q dy + R dz = A(a, b) da + B(a, b) db. (9.6.12)

Vemos ahora cual es la utilidad de estas cuatro funciones. Como


∂a ∂a ∂a
da = dx + dy + dz = ax dx + ay dy + az dz,
∂x ∂y ∂z
(9.6.13)
∂b ∂b ∂b
db = dx + dy + dz = bx dx + by dy + bz dz
∂x ∂y ∂z

llevando (9.6.13) a (9.6.12) e igualando los coeficientes de dx, dy y dz


tenemos
P = A ax + B bx ,
Q = A ay + B by , (9.6.14)
R = A az + B bz .
Consideremos ahora el siguiente sistema:
dx dy dz
= = . (9.6.15)
Qz − Ry R x − Pz Py − Qx
11
Joseph Louis François Bertrand (1822–1900), matemático francés.
362 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Compárese ahora (9.6.15) y (9.6.11). La ecuación (9.4.14) nos dice


que si G es una integral primera del sistema (9.6.15), ha de verificar
Gx (Qz − Ry ) + Gy (Rx − Pz ) + Gz (Py − Qx ) = 0. (9.6.16)
Como aún no hemos determinado las funciones a(x, y, z) y b(x, y, z),
podemos escogerlas de tal manera que sean dos integrales primeras
funcionalmente independientes del sistema (9.6.15). Si esto lo hace-
mos ası́, por (9.6.16) tenemos que
ax (Qz − Ry ) + ay (Rx − Pz ) + az (Py − Qx ) = 0,
(9.6.17)
bx (Qz − Ry ) + by (Rx − Pz ) + bz (Py − Qx ) = 0.
Esta elección es compatible con todo lo anteriormente comentado. En
efecto, sustituyamos (9.6.14) en el miembro de la izquierda de (9.6.11);
teniendo ahora en cuenta las dos ecuaciones (9.6.17) obtenemos una
identidad en (9.6.11). Además podemos escoger a(x, y, z) y b(x, y, z)
de modo que sean funcionalmente independientes, al menos en una
cierta región de R3 , de modo que
9 :
ax ay az
rango = 2,
bx by b z
por ejemplo 9 :
ax ay
det != 0. (9.6.18)
bx by
Habiendo determinado a(x, y, z) y b(x, y, z) de esta manera, podemos
hallar ahora A y B usando (9.6.14).
Falta por demostrar que A y B pueden ponerse como funciones de a
y b. Sabemos que A, a y b son funcionalmente independientes si el
jacobiano
∂(A, a, b)
det != 0.
∂(x, y, z)
Luego si existe una relación funcional entre A, a y b, este jacobiano
ha de ser cero en la región en la que esta relación funcional exista.
Derivemos parcialmente las tres ecuaciones (9.6.14). Las derivadas
parciales resultantes satisfarán las siguientes relaciones
Qz − Ry = Az ay + Bz by − Ay az − by bz ,
Rx − Pz = Ax az + Bx bz − Az ax − bz bx , (9.6.19)
Py − Qx = Ay ax + By bx − Ax ay − bx by .
9.6. MÉTODOS DE RESOLUCIÓN DE EC. DE PFAFF 363

Llevando estas expresiones a la segunda de las ecuaciones (9.6.17),


obtenemos 2 2
2 Ax Ay Az 2
∂(A, a, b) 2 2
2 2
= det 2 ax ay az 2 = 0.
∂(x, y, z) 2 2
2 b b b 2
x y z

Lo que demuestra que existe una relación funcional entre A, a y b:


Φ(A, a, b) = 0. Usando ahora (9.6.18) en el teorema de la función
implı́cita12 obtenemos que A = A(a, b). De igual manera se demuestra
que B = B(a, b). Una vez probado lo anterior, vemos que la ecuación
de Pfaff original queda en la forma

A(a, b) da + B(a, b) db = 0,

ecuación de Pfaff en dos variables que una vez integrada nos da


F (a, b) = C como solución general. Como a(x, y, z) y b(x, y, z) se
suponen conocidas, obtenemos ası́ la solución general de la ecuación
inicial como
F (a(x, y, z), b(x, y, z)) = C.

9.6.3 Interpretación geométrica y fı́sica

Consideremos la superficie de ecuación

U (x, y, z) = C. (9.6.20)

Sabemos que la ecuación del plano tangente a la superficie en el punto


P0 = (x0 , y0 , z0 ) es
2 2 2
∂U 22 ∂U 22 ∂U 22
(x − x0 ) + (y − y0 ) + (z − z0 ) = 0.
∂x 2P0 ∂y 2P0 ∂z 2P0

Un vector normal a dicha superficie en el punto P0 viene dado por


9 2 2 2 :
∂U 22 ∂U 22 ∂U 22
, , .
∂x 2P0 ∂y 2P0 ∂z 2P0

Si esta superficie fuera una solución de la ecuación diferencial de Pfaff

P (x, y, z) dx + Q(x, y, z) dy + R(x, y, z) dz = 0, (9.6.21)


12
Véase el libro de Burkill & Burkill.
364 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

existirı́a un factor integrante µ tal que

∂U ∂U ∂U
= µP ; = µQ; = µR.
∂x ∂y ∂y

Estas relaciones son válidas para todos los puntos de una cierta región
en la que están definidas la soluciones de la ecuación. Ası́ pues, en cada
punto P0 perteneciente a la superficie solución (9.6.20) de nuestra ecuación
diferencial (9.6.21), podemos determinar un vector ortogonal a la superficie

µ(x0 , y0 , z0 ) (P (x0 , y0 , z0 ), Q(x0 , y0 , z0 ), R(x0 , y0 , z0 )),

proporcional a (P (x0 , y0 , z0 ), Q(x0 , y0 , z0 ), R(x0 , y0 , z0 )). Como tanto la


solución como el punto son arbitrarios podemos concluir lo siguiente: en
cada punto de la región en la que existen soluciones de la ecuación
(9.6.21) el campo vectorial (P, Q, R) representa el vector normal a
la solución de la ecuación que pasa por dicho punto.

Consideremos ahora el sistema autónomo construido usando las mismas


funciones P (x, y, z), Q(x, y, z), R(x, y, z) que en (9.6.21):

dx dy dz
= = = dt. (9.6.22)
P (x, y, z) Q(x, y, z) R(x, y, z)

Supongamos que hemos hallado la trayectoria (única, ya que el sistema es


autónomo) que pasa por el punto (x0 , y0 , z0 ), correspondiendo al valor t0 .
Tendremos entonces que
' (
3 dx 4 dy 3 dz 4
dt t0 dt t0 dt t0
= = . (9.6.23)
P (x0 , y0 , z0 ) Q(x0 , y0 , z0 ) R(x0 , y0 , z0 )

Sabemos que un vector tangente a la curva solución pasando por el punto


(x0 , y0 , z0 ) es el siguiente:
9$ % $ % $ % :
dx dy dz
, , .
dt t0 dt t0 dt t0

Pero (9.6.23) nos está indicando que este vector es proporcional a

(P (x0 , y0 , z0 ), Q(x0 , y0 , z0 ), R(x0 , y0 , z0 )),


9.6. MÉTODOS DE RESOLUCIÓN DE EC. DE PFAFF 365

el cual será también un vector tangente a la curva en el mismo punto. Por


tanto (P, Q, R) determina un campo vectorial que en cada punto
nos da el vector tangente a la trayectoria.
Una conclusión resulta de todo esto: las soluciones de la ecuación
en diferenciales totales (9.6.21) (que son superficies en R3 ) y las solu-
ciones del sistema (9.6.22) (que son curvas en R3 ) son ortogonales.

" · d"r = 0. En mu-


La ecuación diferencial (9.6.21) puede escribirse X
"
chos casos prácticos, el vector X suele interpretarse como un campo de
fuerzas; de los comentarios que preceden se sigue que estamos buscando las
superficies cuyo plano de vectores tangentes en cada punto, d"r, es ortog-
onal al campo de fuerzas dado, siendo éstas las superficies equipotenciales
U (x, y, z) = C (esta función es lo que habitualmente conocemos en fı́sica
como el potencial, cuyo gradiente nos da el campo de fuerzas).
El sistema de ecuaciones diferenciales (9.6.22) nos expresa el hecho de
" es proporcional al vector
que, en cada punto de la curva solución, el vector X
d"r, de modo que en este caso se buscan las curvas cuyo vector tangente sea
proporcional al campo de fuerzas. Esta es justamente la definición de las
lı́neas de corriente o de fuerza. Hemos demostrado anteriormente que las
lı́neas de fuerza son ortogonales a las superficies equipotenciales.

9.6.4 Ecuaciones de Pfaff con n variables

Para finalizar el presente capı́tulo, consideremos la siguiente ecuación de


Pfaff:
n
&
X1 (x1 , x2 , . . . , xn ) dx1 + . . . + Xn (x1 , x2 , . . . , xn ) dxn = Xk dxk = 0.
k=1
(9.6.24)
Definamos ahora la familia de vectores tridimensionales

"ijk = (Xi , Xj , Xk ),
Y

donde Xi , Xj y Xk son tres funciones cualesquiera diferentes del conjunto


de funciones {X1 , . . . , Xn }. Ofrecemos a continuación un resultado, que no
demostraremos, relativo a la integrabilidad de la ecuación (9.6.24).
366 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

Teorema 4: la condición necesaria y suficiente para que (9.6.24) sea inte-


grable es que
Y "ijk )) = 0
"ijk · (rotijk (Y (9.6.25)
para cualquier terna de ı́ndices i, j, k distintos. Por rotijk indicamos el
rotacional evaluado respecto de las variables xi , xj , xk .

El número total de estas ecuaciones es n(n − 1)(n − 2)/6 (combinaciones


de n elementos tomados de tres en tres), pero sólo (n − 1)(n − 2)/2 de ellas
son independientes.
Si la ecuación de Pfaff (9.6.24) es integrable, existirán un factor inte-
grante µ y una función potencial U tales que
n
&
dU = µ X1 dx1 + . . . + µ Xn dxn = µ Xk dxk . (9.6.26)
k=1

Proposición 3: sel factor integrante µ satisface el conjunto de ecuaciones


n $ %
dµ & 1 ∂Xi ∂Xj
− = − dxj , i = 1, . . . , n. (9.6.27)
µ Xi ∂xj ∂xi
j=1

Demostración: en efecto, tomando la función potencial U y teniendo en


cuenta (9.6.26) tenemos:
n
& n
&
∂U
dU = dxk = (µ Xk ) dxk , (9.6.28)
∂xk
k=1 k=1

por tanto
∂U
= µ Xk , k = 1, . . . , n,
∂xk
de donde las parciales segundas resultan ser

∂2U ∂(µ X" ) ∂µ ∂X"


= = X" +µ , (9.6.29)
∂xk x" ∂xk ∂xk ∂xk
∂2U ∂(µ Xk ) ∂µ ∂Xk
= = Xk +µ , (9.6.30)
∂x" xk ∂x" ∂x" ∂x"
9.7. PROBLEMAS 367

que han de coincidir. La conclusión es inmediata:


! " ! "
∂X" ∂Xk ∂µ ∂µ
µ − = Xk − X" , ∀k, '.
∂xk ∂x" ∂x" ∂xk
Multiplicando cada ecuación por dxk /(µ X" ) y sumando en k llegamos a
&n ! " n ! "
dxk ∂X" ∂Xk 1 & Xk ∂µ ∂µ
− = − dxk
X" ∂xk ∂x" µ X" ∂x" ∂xk
k=1 k=1
n n
1 ∂µ & 1 & ∂µ dµ
= Xk dxk − dxk = − ,
µ X" ∂x" µ ∂xk µ
k=1 k=1

como se querı́a demostrar. Obsérvese que en la última igualdad se ha usado


precisamente la ecuación de partida (9.6.24) .

A veces puede ocurrir que alguna de las ecuaciones (9.6.27) pueda resol-
verse y permita determinar µ. Además, al igual que sucedı́a con las formas
diferenciales en dos variables, dados dos factores integrantes µ1 y µ2 , una
solución de (9.6.24) es µ1 /µ2 = C.
Ejercicio: demuéstrese que la solución de la siguiente ecuación de Pfaff en
cuatro variables
yzu dx + xzu dy + xyu dz + 2xyz du = 0
es precisamente
U (x, y, z, u) = xyzu2 = cte.

9.7 Problemas
1. Resuélvase la ecuación diferencial
(x2 z − y 3 )dx + 3xy 2 dy + x3 dz = 0,
demostrando primeramente que es integrable.
2. Resuélvanse las siguientes ecuaciones en diferenciales totales, comprobando
previamente su integrabilidad:
a) (2zx + y)dx + (x + z 3 )dy + (x2 + 3yz 2 )dz = 0.
b) a2 z 2 y 2 dx − b2 z 2 x2 dy + c2 x2 y 2 dz = 0.
c) x(y 2 − a2 )dx + y(x2 − z 2 )dy − z(y 2 − a2 )dz = 0.
d) yz(y + z)dx + xz(x + z)dy + xy(x + y)dz = 0.
368 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

3. Intégrese, utilizando el método de Mayer, la ecuación diferencial

2yzdx + xzdy + 3xydz = 0.

4. Intégrese, utilizando el método de Natani, la ecuación diferencial

z(z + y 2 )dx + z(z + x2 )dy − xy(x + y)dz = 0.

Consejo: hágase y constante.


5. Intégrese, utilizando el método de Bertrand, la ecuación diferencial

2y(y 2 + z 2 ) dx − x(x2 + 3y 2 + z 2 ) dy + 2xyz dz = 0.

6. Encuéntrense dos integrales primeras funcionalmente independientes en los


siguientes sistemas:

dy az − cx dz bx − ay dx dy dz
a) = , = . b) = = .
dx cy − bz dx cy − bz z xy z

7. Sea X" = (P, Q, R) un campo vectorial, cuyas componentes son funciones


diferenciables en un dominio D ⊂ R3 y sea µ(x, y, z) una función diferencia-
ble en D. Demuéstrese que

" · rot X
X " = 0 ⇐⇒ (µX)
" · (rot (µX))
" = 0, en D.

8. Un punto material de masa unidad se mueve libremente en un plano hori-


zontal y está sometido a una fuerza directamente aplicada F" = −α"i − β"j.
Usando coordenadas cartesianas dedúzcase que las funciones

1 2
g1 = (p + p22 ) + (αq1 + βq2 ),
2 1
g2 = βp1 − αp2 ,
g3 = p2 + βt,
α
g4 = q1 − t2 − p1 t,
2
son cuatro integrales primeras (independientes) del conjunto de las ecua-
ciones canónicas de Hamilton.
9. Un punto material de masa unidad se mueve libremente en el espacio atraı́do
por el origen con una fuerza directamente proporcional a la distancia (cons-
tante de proporcionalidad unitaria). Realı́cese un estudio general de las
integrales primeras de este “oscilador armónico isótropo tridimensional”.
9.7. PROBLEMAS 369

10. Encuéntrense dos integrales primeras para los siguientes sistemas:


dx dy dz
a) = = .
xz − y yz − x 1 − z2
dx dy dz
b) = 4 = .
y 3 x − 2x4 2y − x3 y 2z(x3 − y 3 )
dx dy dz
c) = = .
x+y x+y −(x + y + 2z)
xdx dy dz
d) = 2 = 3.
y3 z x z y
dx dy dz
e) = = .
x2 − y 2 − z 2 2xy 2xz
dx dy dz
f) = = .
x(2y − z )
4 4 y(z − 2x )
4 4 z(x − y 4 )
4

dx dy dz
g) = = .
x(z 2 − y 2 ) y(x2 − z 2 ) z(y 2 − x2 )
dx dy dz
h) = = .
x(y − z) y(z − x) z(x − y)
11. Intégrense, cuando sea posible, las siguientes ecuaciones diferenciales:
a) 2y(a − x)dx + [z − y 2 + (a − x)2 ]dy − ydz = 0.
b) (y 2 + yz + z 2 )dx + (z 2 + zx + x2 )dy + (x2 + xy + y 2 )dz = 0.
c) (1 + yz)dx + x(z − x)dy − (1 + xy)dz = 0.
d) yzdx + (x2 y − zx)dy + (x2 z − xy)dz = 0.
e) y(1 + z 2 )dx − x(1 + z 2 )dy + (x2 + y 2 )dz = 0.
f) (cos x + ex y)dx + (ex + ey z)dy + ey dz = 0.
g) x2 dx − z 2 dy − xydz = 0.
h) (x + z)2 dy + y 2 (dx + dz) = 0.
i) 2x(y + z)dx + (2yz − x2 + y 2 − z 2 )dy + (2yz − x2 − y 2 + z 2 )dz = 0.
j) xdx + ydy + (x2 + y 2 + z 2 + 1)zdz = 0.
k) z(x2 − yz − z 2 )dx + xz(x + z)dy + x(z 2 − x2 − xy)dz = 0.
l) 2xdx + (2x2 z + 2yz + 2y 2 + 1)dy + dz = 0.
m) (y 2 + z 2 )dx + xydy + xzdz = 0.
n) x(y 2 − z 2 )dx + y(z 2 − x2 )dy + z(x2 − y 2 )dz = 0.
ñ) (y 2 − z 2 )dx + (x2 − z 2 )dy + (x + y)(x + y + 2z)dz = 0.
370 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

12. Un punto material de masa unidad se mueve libremente en el espacio atraı́do


por el origen con un potencial inversamente proporcional a la distancia
punto-origen (la constante de proporcionalidad es también la unidad). Como
la fuerza es central, sabemos que la evolución tiene lugar en un plano fijo
que pasa por el centro de fuerzas. Trabajando en ese plano, demuéstrese
que
1 2
g1 = (p + p2y ) − 1/r,
2 x
g2 = xpy − ypx ,
g3 = xp2y − ypx py − x/r,

g4 = yp2x − xpx py − y/r,

son cuatro integrales primeras para el sistema de ecuaciones canónicas.


13. Sean Mji , j = 0, 1, . . . , n, i = 1, . . . , n, n sistemas de multiplicadores factores
integrantes para el sistema "x % (t) = F" (t, "x), y sean Gk con k = 1, . . . n, sus
correspondientes integrales primeras. Supongamos que el determinante
2 2
2 M11 M21 · · · Mn1 2
2 2
2 M12 M22 · · · Mn2 2
2 2
2 .. .. .. .. 2 != 0.
2 .
2 . . . 22
2 Mn Mn · · · Mn 2
1 2 n

Pruébese que G1 , . . . , Gn son funcionalmente independientes, es decir, que


no existe ninguna función Ψ(z1 , . . . , zn ) tal que Ψ(G1 , . . . , Gn ) = 0.
14. Encuéntrense las curvas integrales de la ecuación

ydx − xdy + dz = 0

sobre la superficie y = xz.


15. Hállese la solución (comentando luego su interpretación geométrica y fı́sica)
de la ecuación
(y 2 + yz) dx + xz dy + y 2 dz = 0.

16. Caso de ser posible, intégrese la ecuación diferencial

(y 2 + yz + z 2 ) dx + (z 2 + zx + x2 ) dy + (x2 + xy + y 2 ) dz = 0.

17. Utilizando, bien la teorı́a general, bien uno de los métodos estudiados,
resuélvase la ecuación diferencial en diferenciales totales:

x dx + y dy + (x2 + y 2 + z 2 + 1)z dz = 0.
9.7. PROBLEMAS 371

18. Considérense las funciones P (x, y, z)=y 2 +z 2 , Q(x, y, z)=xy, R(x, y, z)=xz.
a) Calcúlese la solución de P (x, y, z) dx + Q(x, y, z) dy + R(x, y, z) dz = 0.
¿Qué representa geométricamente?
b) Calcúlense dos integrales primeras funcionalmente independientes de

dx dy dz
= = .
P (x, y, z) Q(x, y, z) R(x, y, z)

¿Qué representan geométricamente? ¿Cuál es la relación entre las soluciones


de los apartados a) y b)?
19. Hállense dos integrales primeras funcionalmente independientes del sistema

dx y dy −x
= , = .
dt 2x − 3y dt 2x − 3y

Encuéntrese la región en la cual estas integrales primeras son funcionalmente


independientes.
20. Resuélvase la ecuación
dx − z dy + y dz = 0.

21. Encuéntrese la solución general de la ecuación diferencial

zx2 dx + zy 2 dy + (x3 + y 3 ) dz

usando dos procedimientos diferentes, uno de ellos, obligatoriamente, el de


Natani.
22. Encuéntrese la familia de curvas que son ortogonales en cada punto a las
superficies de ecuación
x2 + 2y 2 + 4z 2 = C,
donde C es una constante.
23. Calcúlense dos integrales primeras independientes del sistema

dx dy dz
= = .
3y − 2z z − 3x 2x − y

24. Encuéntrense dos soluciones funcionalmente independientes del sistema no


lineal de primer orden:

dz
= (x + y) (1 + 2xy + 3x2 y 2 ),
dx
dz
= (x + y) (1 + 2xy + 3x2 y 2 ).
dy
372 CAPÍTULO 9. SISTEMAS NO LINEALES Y EC. DE PFAFF

25. Hállese la solución general de la ecuación en diferenciales totales:

(cos x + y ex ) dx + (ex + z ey ) dy + ey dz.

26. Considérese el siguiente sistema

dx x (t2 − y 2 ) dy y (x2 − t2 )
= , = .
dt t (y 2 − x2 ) dt t (y 2 − x2 )

Encuéntrense dos integrales primeras funcionalmente independientes. Prué-


bese que son, de hecho, funcionalmente independientes. Desde un punto de
vista geométrico, ¿cómo son las soluciones del sistema?
27. Dada la ecuación diferencial
yz
dx + z(2y 3 − ln x)dy + (y 4 + y ln x)dz = 0,
x
compruébese que es integrable y hállense sus soluciones usando el método
de Natani.
28. Caso de existir, encuéntrese la solución de la ecuación

(y 2 + yz)dx + (xz + z 2 )dy + (y 2 − xy)dz = 0.

9.8 Bibliografı́a
1. Burkill, J. C., and Burkill, H., A Second Course in Mathematical Analysis,
Cambridge University Press, 1970.
2. Elsgoltz, L., Ecuaciones diferenciales y cálculo variacional , MIR, 1969.
3. Ince, E.L., Ordinary Differential Equations, Dover, 1956.
4. Pérez, A., Apuntes de Ecuaciones diferenciales, Valladolid 1968 (no publi-
cados).
5. Tejerina, F., Termodinámica, Ed. Paraninfo, 1976.
6. Zwillinger, D., Handbook of Differential Equations, Academic Press, 1992.
Capı́tulo 10

SOLUCIONES DE
ECUACIONES
DIFERENCIALES EN
SERIE DE POTENCIAS

10.1 Introducción

Ya en 1733, D. Bernouilli, al estudiar la ecuación diferencial que rige las


oscilaciones de una cadena uniforme suspendida de uno de sus extremos,
encontró la ecuación diferencial lineal de segundo orden y con coeficientes
variables $ %
d dy
α x + y = 0, α = cte,
dx dx
y halló una de sus soluciones en forma de serie de potencias en la variable x.
Posteriormente Euler estudió más profundamente éste y otros problemas
relacionados mediante esta misma técnica de los desarrollos en serie, in-
troduciendo las funciones que más tarde recibieron el nombre de funciones
de Bessel, y que estudiaremos en este capı́tulo. Vamos a mostrar en él
como aplicar esta técnica de resolución de ecuaciones diferenciales. Nos
detenemos en ella por dos motivos: por su interés intrı́nseco como método
de resolución de ecuaciones diferenciales que de otro modo no podrı́an ser
resueltas, y también porque un gran número de ecuaciones diferenciales

373
374 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

lineales con coeficientes variables que aparecen en el estudio de problemas


fı́sicos se pueden resolver utilizando este procedimiento.
El método es aplicable a ecuaciones diferenciales lineales y no lineales,
pero para estas últimas los cálculos no son sencillos, de manera que nos
centraremos en el estudio de las lineales. Para éstas tenemos dos posibi-
lidades: que sean de coeficientes constantes o variables; las primeras son
sencillamente resolubles utilizando técnicas ya vistas en un capı́tulo ante-
rior, el método de los desarrollos en serie demuestra toda su utilidad para
las segundas. Finalmente, las ecuaciones pueden ser, en principio, de orden
arbitrario, digamos n, pero por sencillez vamos a centrarnos en el estudio
de las de segundo orden, ya que son ellas las que más frecuentemente apare-
cen en las aplicaciones; pero ha de quedar claro que el método es aplicable
tanto a ecuaciones de primer orden como de orden superior.

10.2 Clasificación de las singularidades de una


ecuación diferencial

Aunque ya hemos comentado que se debe a Euler la aplicación sistemática


de los desarrollos en serie para resolver ecuaciones diferenciales, fue en el
siglo XIX cuando, tras la fundamentación rigurosa del análisis matemático,
se procedió a establecer una teorı́a que sustentaba las manipulaciones más
o menos formales que se venı́an haciendo con las series para resolver ciertas
ecuaciones diferenciales. Las principales contribuciones se deben a Rie-
mann, Fuchs1 y Frobenius2 . La teorı́a se desarrolla en el plano complejo:
es decir, la variable x deja de ser considerada real y pasa a tomar valores
en C, pero eso no es relevante para lo que a nosotros nos interesa. Nosotros
nos centraremos en el análisis debido a Fuchs y a Frobenius, más que en el
de Riemann.
Sin más preámbulos, consideremos una ecuación lineal homogénea de
segundo orden
d2 y dy
2
+ P (x) + Q(x) y = 0. (10.2.1)
dx dx
Como ya hemos comentado, nos han aparecido casos particulares de este
1
Lazarus Immanuel Fuchs (1833–1902) fue discı́pulo de Weierstrass y su sucesor en
Berlı́n.
2
Georg Ferdinand Frobenius (1849–1917), matemático alemán bien conocido por sus
trabajos en teorı́a de grupos, que fue también discı́pulo de Weierstrass.
10.2. CLASIFICACIÓN DE LAS SINGULARIDADES 375

tipo de ecuación, por ejemplo cuando P (x) y Q(x) son constantes. Sin
embargo, en la mayorı́a de los casos en los que se presenta este tipo de
ecuaciones hemos de recurrir al procedimiento de desarrollos en serie para
hallar la solución.
Lo que se pretende es encontrar una solución y(x) de la ecuación dife-
rencial (10.2.1) como una serie de potencias en (x − x0 ), desarrollo que
será válido en un entorno (que habrá que determinar) de un cierto punto
x0 , escogido bajo determinados criterios que luego se comentarán. El he-
cho fundamental, descubierto por Fuchs es que el comportamiento de las
soluciones de la ecuación en torno a x0 depende de cómo sea el compor-
tamiento de las funciones P (x) y Q(x) en torno a ese mismo punto x0 . Por
este motivo introducimos los siguientes conceptos:
Definición 1: si las funciones P (x) y Q(x) son desarrollables en serie de
Taylor en torno a un punto x = x0 diremos que x0 es un punto ordinario
de la ecuación diferencial (10.2.1). En caso contrario diremos que x0 es un
punto singular de la ecuación diferencial.
Definición 2: si x = x0 es un punto singular, diremos que es un punto
singular regular si las funciones
(x − x0 ) P (x), (x − x0 )2 Q(x) (10.2.2)
son desarrollables en serie de Taylor en torno a la singularidad x0 . De no
ser ası́, diremos que x = x0 es un punto singular irregular .

Este análisis se puede efectuar para todo valor x0 finito. Para analizar el
comportamiento en el infinito, podemos hacer el cambio de variable x = 1/z
y estudiar el comportamiento de la ecuación diferencial resultante en torno
a z = 0. Veámoslo en detalle: al hacer el cambio indicado la variable
dependiente pasa a ser y(x) = y(1/z) := w(z). Derivando y aplicando la
regla de la cadena:
dy dw dz dw
= = −z 2 ;
dx dz dx dz
! " ! "
d2 y d dy d 2 dw d 2 dw dz
2
4 d w dw
2
= = −z = −z = z 2
+ 2z 3 .
dx dx dx dx dz dz dz dx dz dz
Con esto, la ecuación (10.2.1) se transforma en
$ %
d2 w 2z − P (1/z) dw Q(1/z)
+ + w = 0. (10.2.3)
dz 2 z2 dz z4
376 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

Ahora habrı́a que analizar el comportamiento de la solución de esta nueva


ecuación en torno a z = 0: ver si es un punto ordinario, singular regular o
singular irregular. En muchas de las aplicaciones fı́sicas es muy importante
el comportamiento en el infinito de la función, y es frecuente que éste sea
un punto singular de la ecuación.
Ejercicio: demuéstrese que para la ecuación
1 !
y !! + y + x2 y = 0
x
el punto x = 3 es ordinario, x = 0 es singular regular y x = ∞ es singular
irregular.
Observación: para una ecuación de orden n

y (n) + a1 (x) y (n−1) + a2 (x) y (n−2) + · · · + an (x) y = 0

la condición necesaria y suficiente para que x = x0 sea un punto singular


regular es que las funciones (x−x0 )r ar (x), r = 1, . . . , n, sean desarrollables
en serie de Taylor en torno a x0 .

10.3 El método de Frobenius

Volvamos de nuevo nuestra atención a la ecuación (10.2.1). Sabemos que


las soluciones forman un espacio vectorial de dimensión dos; nos bastará
por tanto con encontrar dos soluciones linealmente independientes, ya que
la solución general será una combinación lineal de esas dos soluciones con
coeficientes arbitrarios. Para obtener una solución particular que verifique
ciertas condiciones iniciales habrá que fijar esas constantes.

10.3.1 Resultados previos

Antes de proceder al cálculo efectivo de las soluciones en forma de serie de


estas ecuaciones diferenciales, conviene exponer los resultados de Fuchs al
respecto, ya que nos van a ser muy útiles a la hora de hacer los cálculos
explı́citos.
Primer teorema de Fuchs: si x0 es un punto ordinario de la ecuación
diferencial (10.2.1) y si a0 , a1 son constantes arbitrarias, existe una única
10.3. EL MÉTODO DE FROBENIUS 377

solución de la ecuación diferencial que es desarrollable en serie de Taylor


en torno a x0 y verifica y(x0 ) = a0 , y ! (x0 ) = a1 . La serie solución es
convergente en el intervalo en el que lo sean a la vez las de P (x) y Q(x).
Segundo teorema de Fuchs: si x0 es un punto singular regular de la
ecuación (10.2.1), entonces la solución o bien es analı́tica en x0 (desarro-
llable en serie de Taylor), o bien presenta una singularidad en x0 (que a
su vez puede ser un polo o un punto de ramificación de tipo potencial o
logarı́tmico, es decir, (x − x0 )α f (x) ó f (x) ln(x − x0 ), con f (x) analı́tica).

Si x0 fuera un punto singular irregular, se puede intentar aplicar el


método de Frobenius que detallaremos a continuación, pero a lo sumo ob-
tendremos una de las dos soluciones linealmente independientes.

10.3.2 El método en sı́

Para aplicar en la práctica el método, lo primero que se hace es determinar


los puntos singulares regulares de la ecuación (salvo que lo que nos interese
sea la solución en torno a un punto ordinario, pero usualmente las soluciones
más interesantes se obtienen en torno a los puntos singulares). Sea x0 el
punto en torno al cual queremos hallar la solución; para mayor sencillez en
los desarrollos teóricos, se suele elegir x0 = 0, lo que equivale a efectuar un
cambio de variable del tipo z = x − x0 . En lo que sigue adoptaremos este
criterio.
Para hallar la solución en torno a x = 0, punto singular regular, se
supone que ésta será de la forma

& ∞
&
y=x λ
an x =
n
an xn+λ = a0 xλ + a1 xλ+1 + a2 xλ+2 + · · · , (10.3.1)
n=0 n=0

donde se supone siempre que a0 != 03 . Una serie como la que acabamos de


escribir se denomina serie de Frobenius. Si interesara la solución en torno
de x0 escribirı́amos la solución buscada en la forma

&
y = (x − x0 ) λ
an (x − x0 )n .
n=0
3
Aceptar que a0 pueda ser 0 equivale a cambiar el valor de λ en una o varias unidades,
pero no se obtiene mayor generalidad por ello.
378 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

Para determinar la solución han de hallarse los valores de los coeficientes


a0 , a1 , . . . y también del parámetro λ. Lo que se hace es tomar la solución
(10.3.1) y llevarla a (10.2.1), sustituyendo P (x) y Q(x) por sus series de
potencias. Para ser más precisos, como x = 0 es punto singular regular,
P (x) y Q(x) admiten los siguientes desarrollos

& ∞
&
x P (x) = pn xn , x2 Q(x) = qn xn , (10.3.2)
n=0 n=0

siendo pn , qn números conocidos. Al derivar (10.3.1) tendremos:



& ∞
&
y! = an (n+λ) xλ+n−1 , y !! = an (n+λ)(n+λ−1) xλ+n−2 . (10.3.3)
n=0 n=0

Y sustituyendo todo lo anterior en la ecuación diferencial (10.2.1)



9∞ :9 ∞ :
& & &
an (n + λ)(n + λ − 1) xλ+n−2
= pn xn−1
an (n + λ) xλ+n−1

n=0 n=0 n=0


9 ∞
:9 ∞
:
& &
= n−2
qn x an x λ+n
= 0.
n=0 n=0

Desarrollando la ecuación precedente y teniendo especial cuidado con los


productos de series llegamos a lo siguiente:

0 = a0 λ(λ − 1)xλ−2 + a1 (λ + 1)λxλ−1 + a2 (λ + 2)(λ + 1)xλ + · · ·

+p0 a0 λxλ−2 + [p0 a1 (λ + 1) + p1 a0 λ]xλ−1 + [p0 a2 (λ + 2) + p1 a1 (λ + 1) + p2 a0 λ]xλ + · · ·

+q0 a0 xλ−2 + [q0 a1 + q1 a0 ]xλ−1 + [q0 a2 + q1 a1 + q2 a0 ]xλ + · · ·

Agrupando términos con igual potencia de x obtenemos:

α0 xλ−2 + α1 xλ−1 + α2 xλ + α3 xλ+1 + · · · = 0,

siendo α0 , α1 , α2 , . . . constantes que involucran sólo los números pk , qk , ak y


λ, pero no la variable x. Para que esta serie sea idénticamente nula todos
los coeficientes αk han de ser nulos, es decir:

α0 = a0 [λ(λ − 1) + p0 λ + q0 ] = 0;
α1 = a1 [(λ + 1)λ + p0 (λ + 1) + q0 ] + a0 [p1 λ + q1 ] = 0;
.. .. .. ..
. . . .
10.3. EL MÉTODO DE FROBENIUS 379

De este conjunto de ecuaciones hemos de deducir los valores de λ y ak . La


primera de las ecuaciones es la clave de todo este proceso. De ella, y dado
que a0 != 0 por hipótesis, se sigue que

λ2 + (p0 − 1)λ + q0 = 0, (10.3.4)

ecuación algebraica en λ llamada “ecuación indicial de la ecuación diferen-


cial (10.2.1) en torno al punto x = 0”. Esta ecuación tendrá dos soluciones:
λ1 y λ2 . Aún para una ecuación diferencial con funciones P (x), Q(x) reales
estas raı́ces pueden ser complejas. Eligiendo consecutivamente cada una de
las dos soluciones λ1 y λ2 de la ecuación indicial y sustituyendo su valor
por λ en α1 = 0, α2 = 0, . . . (las llamadas ecuaciones de recurrencia) se
determinan los coeficientes de la serie de Frobenius en función de a0 .
Pues bien, según sean las dos soluciones de la ecuación indicial, ası́ serán
las soluciones de la ecuación diferencial. Se pueden presentar tres casos
diferentes, que son precisamente los indicados en el segundo teorema de
Fuchs, que podemos reformular de manera más precisa como sigue:

A) Cuando la diferencia entre las dos raı́ces no es un número entero,


λ1 − λ2 ∈ / Z, existen dos soluciones linealmente independientes de
la ecuación diferencial en forma de serie de Frobenius, cada una va
asociada a uno de los valores de λ y contiene una constante arbitraria.
Estas dos soluciones serán

& ∞
&
y1 (x) = λ1 +n
an x , y2 (x) = bn xλ2 +n , (10.3.5)
n=0 n=0

y la solución general

y(x) = C1 y1 (x) + C2 y2 (x).

Los coeficientes ak , bk han de calcularse a partir del sistema

α1 = α2 = · · · = 0,

tomando λ = λ1 para obtener los ak , o λ = λ2 para obtener los bk .


B) Cuando las dos raı́ces coinciden, λ1 = λ2 , entonces una de las dos
soluciones linealmente independientes es una serie de Frobenius,

&
y1 (x) = an xλ1 +n ,
n=0
380 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

pero la segunda solución no lo es, y ha de buscarse bajo la forma


siguiente:

&
y2 (x) = y1 (x) ln x + bn xλ2 +n . (10.3.6)
n=0
Los an se calculan de la forma vista en el caso A). Para determinar los
coeficientes bn hay que imponer que la función (10.3.6) sea solución
de (10.2.1).

C) Cuando las dos raı́ces difieren en un entero, λ1 − λ2 ∈ Z, las elejimos


de forma que λ1 − λ2 > 04 . En este caso pueden presentarse dos
situaciones diferentes y en un ejemplo concreto no se puede decir a
priori, sin efectuar los cálculos, cual de ellas es la que aparece:

1. La “menor” de las raı́ces (λ2 ) tiene asociada una solución que


depende de dos parámetros independientes (es, por tanto, la
solución general de la ecuación que se escribe como combinación
lineal de dos series de Frobenius); la “mayor” de las raı́ces genera
una solución que depende sólo de un parámetro y es un caso
particular de la anterior.
2. La “mayor” de las raı́ces (λ1 según el criterio que hemos adopta-
do) genera una solución de tipo serie de Frobenius, y la “menor”
(λ2 ) no origina solución de este tipo (debido a la aparición de
ciertos coeficientes que toman un valor infinito). En este caso,
la segunda solución es también de tipo logarı́tmico (10.3.6).

La demostración de estos resultados, que nos hemos limitado a enunciar,


puede estudiarse a continuación.

Lo que a priori parece más sorprendente es que las soluciones de los casos B) y C)
no sean del tipo serie de Frobenius sino que tengan un término logarı́tmico. ¿Cómo
surge este extraño factor? La respuesta es sencilla. Ya se ha visto en el capı́tulo
dedicado a los sistemas y a las ecuaciones de orden n que es posible reducir el orden
de una ecuación diferencial en una unidad si se conoce una solución yp (x), haciendo
el cambio de variable y(x) = u(x) yp (x). Apliquemos este procedimiento a nuestra
ecuación (10.2.1) suponiendo que conocemos la solución y1 (x) = xλ1 f (x), siendo
f (x) una función analı́tica en x = 0 y con f (0) = a0 %= 0. Buscamos la segunda
solución linealmente independiente en la forma y2 (x) = u(x) y1 (x). Derivando,
y2$ = u$ y1 + u y1$ y2$$ = u$$ y1 + 2u$ y1$ + u y1$$ ,
4
Aunque en general no podremos escribir “λ1 > λ2 ”, por tratarse de dos números
complejos, abusando del lenguaje hablaremos de la “mayor” y la “menor” de las raı́ces.
10.3. EL MÉTODO DE FROBENIUS 381

que llevado a (10.2.1) proporciona


(y1$$ + P (x)y1$ + Q(x)y) u + y1 u$$ + (P (x) y1 + 2y1$ ) u$ = 0.
El primer término entre paréntesis es nulo, por hipótesis. Haciendo ahora w = u$
obtenemos una ecuación en variables separables
$ %
dw y$
+ P (x) + 2 1 dx = 0,
w y1
que se integra fácilmente:
1
2
ln w + ln(y1 (x) ) + P (x) dx = ln C.

Pero sabemos cuál es la forma de la función P (x), (10.3.2), de manera que ten-
dremos
1 ' (
p0
ln C = ln w + ln(y12 ) + + p1 + p2 x + · · · dx
x
x2
= ln(w y12 ) + p0 ln x + p1 x + p2 + ···.
2
Por tanto, tomando exponenciales en los dos miembros de la ecuación:
$ %
x2
w y12 xp0 = C exp −p1 x − p2 − ··· ,
2
o bien, usando la forma de la función y1 (x) = xλ1 f (x),
' (
x2
exp −p1 x − p2 2
− ··· g(x)
w(x) = C := , (10.3.7)
xp0 x2λ1 f (x)2 x2λ1 +p0
siendo
' (
x2
exp −p1 x − p2 2
− ···
g(x) = C := c0 + c1 x + c2 x2 + c3 x3 + · · ·
f (x)2
una función analı́tica (desarrollable en serie de Taylor) en x = 0. Analicemos
ahora el exponente del denominador de w(x) en (10.3.7). Aparece la variable
x elevada al exponente 2λ1 + p0 . Pero recordemos la ecuación indicial (10.3.4):
λ2 + (p0 − 1)λ + q0 = 0. Como λ1 y λ2 son sus dos raı́ces, esta ecuación se factoriza
en la forma
(λ − λ1 )(λ − λ2 ) = 0 = λ2 − (λ1 + λ2 )λ + λ1 λ2 ,
por lo que p0 − 1 = −λ1 − λ2 o bien 2λ1 + p0 = λ1 − λ2 + 1. Ası́ pues
du c0 + c1 x + c2 x2 + c3 x3 + · · · c0 c1 c2
=w= = λ −λ +1 + λ −λ + λ −λ −1 + · · · .
dx x2λ1 +p0 x 1 2 x 1 2 x 1 2
(10.3.8)
Integrando término a término la serie hallamos
c0 xλ2 −λ1 c1 xλ2 −λ1 +1 c2 xλ2 −λ1 +2
u(x) = + + + ···
λ2 − λ1 λ2 − λ1 + 1 λ2 − λ1 + 2
3 4
= xλ2 −λ1 c̃0 + c̃1 x + c̃2 x2 + c̃3 x3 + · · · := xλ2 −λ1 h(x),
382 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

siendo h(x) una función analı́tica. Con este resultado, la segunda solución resulta
ser
y2 (x) = u(x) y1 (x) = xλ2 −λ1 h(x) xλ1 f (x) = xλ2 f˜(x),
que es otra serie de Frobenius. Las manipulaciones anteriores son válidas sola-
mente si λ1 − λ2 ∈/ Z ; si por el contrario sucede que λ1 − λ2 = k ∈ {0, 1, 2, 3, . . .},
hay que tener cuidado al hacer la integral (10.3.8) que permite hallar u(x), ya que
ahora
du c0 c1 c2 ck
= k+1 + k + k−1 + · · · + + ck+1 + ck+2 x + ck+3 x2 + · · ·
dx x x x x
y al integrar resulta
−c0 −c1 −c2 x2
u(x) = k
+ k−1
+ k−2
+ · · · + ck ln x + ck+1 x + ck+2 + ···
kx (k − 1)x (k − 2)x 2
! "
1 c0 c1 x ck+2 k+2
= ck ln x + k − − − · · · − ck−1 xk−1 + ck+1 xk+1 + x + ···
x k k−1 2

= ck ln x + x−k β(x),
siendo β(x) una serie de Taylor. En este caso, recordando que k = λ1 − λ2 , la
segunda solución adopta la forma
y2 (x) = u(x) y1 (x) = xλ1 f (x)[ck ln x + x−k β(x)]
= ck y1 (x) ln x + xλ2 f (x) β(x) := ck y1 (x) ln x + xλ2 η(x).
Por tanto, si ck %= 0, y2 (x) es proporcional a y1 (x) ln x + xλ2 η(x), solución que
diverge en el origen. Si resulta ser ck = 0, entonces la segunda solución no contiene
el logaritmo y es proporcional a la serie de Frobenius xλ2 η(x).
Para finalizar queremos indicar que hemos obviado en todo momento las cuestiones
relativas al intervalo de validez de los desarrollos en serie que hemos manejado. A
este respecto nos remitimos a lo que ya hemos comentado con anterioridad: son
válidos allı́ donde lo sean a la vez los desarrollos de las funciones P (x) y Q(x).

En lo que resta de este capı́tulo procederemos al estudio de algunos


casos muy relevantes en las aplicaciones tanto técnicas como más teóricas
(en astronomı́a o mecánica cuántica, por ejemplo), usando la técnica que
acabamos de desarrollar. Estos casos son los siguientes: la ecuación de
Bessel, la ecuación hipergeométrica y la hipergeométrica confluente.

10.4 Ecuación de Bessel

Existen muchos tipos de funciones de Bessel, algunas de las cuales co-


mentaremos en esta sección. Aparecen con frecuencia en el estudio de
10.4. ECUACIÓN DE BESSEL 383

ciertos fenómenos fı́sicos, en especial cuando el problema que se estudia


presenta una simetrı́a cilı́ndrica. Estas funciones se pueden introducir de
varias maneras diferentes, nosotros lo haremos partiendo de la ecuación
diferencial de Bessel de ı́ndice ν en cualquiera de sus dos formas equiva-
lentes: $ % 
!! 1 ! ν2 

y (x) + y (x) + 1 − 2 y(x) = 0, 
x x
(10.4.1)



x2 y !! (x) + x y ! (x) + (x2 − ν 2 ) y(x) = 0.
El ı́ndice ν puede ser complejo; sin pérdida de generalidad (porque aparece
elevado al cuadrado en la ecuación) vamos a suponer que su parte real es
no negativa. La ecuación (10.4.1) nos proporciona un ejemplo en el que
podemos aplicar el segundo teorema de Fuchs para buscar soluciones en
serie de Frobenius, dado que en este caso

1 x2 − ν 2
P (x) = , Q(x) =
x x2
y se cumplen las condiciones estipuladas para decir que x = 0 es un punto
singular regular (se deja al lector la comprobación de que existe también un
punto singular irregular en el infinito). Por tanto, buscamos una solución
de la forma

&
y= an xn+λ , a0 != 0;
n=0
&∞
y! = (n + λ) an xn+λ−1 ;
n=0
&∞
y !! = (n + λ)(n + λ − 1) an xn+λ−2 .
n=0

Yendo a la ecuación diferencial de Bessel, en concreto a la segunda de las


ecuaciones dadas en (10.4.1), y agrupando términos:

& ∞
&
(n + λ)(n + λ − 1) an xn+λ + (n + λ) an xn+λ
n=0 n=0

& ∞
&
+ an xn+λ+2 − ν 2 an xn+λ = 0,
n=0 n=0
384 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

o bien

& ∞
&
an [(n + λ)2 − ν 2 ] xn+λ + an xn+λ+2 = 0.
n=0 n=0

Separando los dos primeros sumandos del primero de los sumatorios, ha-
ciendo el cambio de ı́ndice n + 2 = m en el segundo y agrupando tenemos:

&
a0 (λ2 −ν 2 ) xλ +a1 [(λ+1)2 −ν 2 ] xλ+1 + {an−2 +an [(n+λ)2 −ν 2 ]} xn+λ = 0.
n=2

Para que esta igualdad se verifique idénticamente, ha de cumplirse el sis-


tema de infinitas ecuaciones algebraicas:

a0 (λ2 − ν 2 ) = 0, a0 != 0, (10.4.2)
a1 [(λ + 1)2 − ν 2 ] = 0, (10.4.3)
an−2 + an [(n + λ)2 − ν 2 ] = 0, n = 2, 3, . . . (10.4.4)

Obsérvese que la dependencia en ν aparece a través de ν 2 . De la ecuación


indicial (10.4.2) tenemos que λ = ±ν, es decir

λ1 = ν, λ2 = −ν; ν = a + ib, a ≥ 0. (10.4.5)

Ya sabemos que dependiendo de lo que valga la diferencia λ1 − λ2 = 2ν las


soluciones de la ecuación serán de uno u otro tipo. En cualquier caso, la
solución correspondiente a λ1 = ν es una serie de Frobenius que vamos a
determinar a continuación.

10.4.1 Cálculo de la solución correspondiente a λ1 = ν

Para hallar esta función solución hacemos λ = ν en las ecuaciones (10.4.3)


y (10.4.4), con lo que obtenemos:
an−2
a1 [2ν + 1] = 0, an = − , n = 2, 3, . . . (10.4.6)
n(n + 2ν)

Por hipótesis 2ν + 1 != 0 (de hecho 2ν + n != 0, n = 2, 3, . . .), de modo


que ha de ocurrir que a1 = 0 para que se cumpla la primera de las ecua-
ciones de (10.4.6); las restantes nos dan una ley recurrencia que nos permite
10.4. ECUACIÓN DE BESSEL 385

determinar los coeficientes de la serie en términos de a0 :


a0 −a0
n=2: a2 = − = ;
2(2 + 2ν) 2 (1 + ν) 2
a1
n=3: a3 =− = 0;
3(3 + 2ν)
a2 a0
n=4: a4 =− = ;
4(4 + 2ν) 2 · 4 (1 + ν)(2 + ν) 22
n=5: a5 = 0;
a4 −a0
n=6: a6 =− = ;
6(6 + 2ν) 2 · 4 · 6 (1 + ν)(2 + ν)(3 + ν) 23
.. .. .. ..
. . . .

Lo anterior puede escribirse en forma resumida del siguiente modo:

n = 2k + 1 : a2k−1 = 0; k = 1, 2, 3, . . . (10.4.7)
(−1)k a0
n = 2k : a2k =
2 · 4 · · · (2k − 2) · 2k (1 + ν)(2 + ν) · · · (k + ν) 2k
(−1)k a0 Γ(ν + 1)
= ; k = 1, 2, 3, . . . (10.4.8)
22k k! Γ(k + ν + 1)

Como vemos todos los coeficientes impares se anulan y sólo quedan los
pares. La solución que hemos hallado es:

& ∞
&
y1 (x) = an x n+λ
=x ν
a2k x2k
n=0 k=0

& (−1)k ' x (2k
= a0 Γ(ν + 1) xν .
k! Γ(k + ν + 1) 2
k=0

Cualquier función proporcional a ésta también es solución. De hecho, se


conviene en definir la función de Bessel de primera especie e ı́ndice ν como
' x (ν &

(−1)n ' x (2n
Jν (x) = . (10.4.9)
2 n! Γ(n + ν + 1) 2
n=0

La serie que define las funciones de Bessel de primera especie permite que
la variable x tome valores complejos, extendiendo ası́ su definición a C.
386 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

Analicemos ahora cuál es el radio de convergencia de esta serie. Para


ello hemos de calcular
2 2
2 = lim 2
2 a2n 2 2(n−1) (n − 1)! Γ(n + ν) 1
2
lim 2 = lim = 0.
n→∞ a2n−2 2 n→∞ 2 n! Γ(n + ν + 1)
2n n→∞ 4n(n + ν)

Por consiguiente el radio de convergencia de la serie en x2 es infinito, lo que


implica que el radio de convergencia de la serie en x también lo es. Como
ya hemos dicho, la variable x puede ser real o compleja. En el segundo caso
vemos que la serie que aparece en (10.4.9) representa una función entera
de variable compleja, de modo que las posibles singularidades de la función
Jν (x) han de ser debidas al término xν . Si ν es un número entero, Jν (x) es
una función entera (excluida la posibilidad de que ν pueda ser negativo); en
caso contrario, xν exhibe un punto de ramificación en el origen (se elije la
rama principal y la semirrecta donde la función no es analı́tica es el semieje
real negativo).
Las funciones de Bessel de ı́ndice entero tienen una representación gráfi-
ca muy sencilla. Algunas de ellas se muestran en la Figura 10.1. Obsérvese
que se trata de funciones oscilantes que se amortiguan conforme x va hacia
infinito. Las funciones presentan un número infinito de ceros en el eje real
que no son equidistantes.

0.5 J2 HxL

J1 HxL
3 6 9
J0 HxL
-0.5

Figura 10.1: Algunas funciones de Bessel de


ı́ndice entero.

10.4.2 Cálculo de la segunda solución linealmente


independiente

Hemos de diferenciar entre dos posibilidades: que 2ν sea o no sea un número


natural.
10.4. ECUACIÓN DE BESSEL 387

a) Supongamos primero que 2ν ∈ / N. En este caso, el teorema de Fuchs


nos asegura que la segunda solución es también una serie de Frobenius
que vamos a hallar a continuación. Para ello hacemos λ = −ν en las
ecuaciones (10.4.3) y (10.4.4):
an−2
a1 [1 − 2ν] = 0, an = − , n = 2, 3, . . . (10.4.10)
n(n − 2ν)
De la primera de estas ecuaciones vemos que a1 = 0, pues 2ν != 1. De
la segunda se sigue que todos los coeficientes impares son cero

a1 = a3 = a5 = · · · = 0,

pues por la condición de que 2ν no sea natural se deduce que el


denominador no puede anularse. Además
a2n−2 (−1)n a0
a2n = − = .
22 n (n − ν) 22n n! (n − ν)(n − 1 − ν) · · · (1 − ν)
Por lo tanto, la segunda solución es

&
−ν (−1)n a0 Γ(1 − ν) 2n
y2 (x) = x x
22n n! Γ(n − ν + 1)
n=0

& (−1)n ' x (2n
= a0 Γ(1 − ν)x−ν .
n! Γ(n − ν + 1) 2
n=0

Por analogı́a con (10.4.9), y tras una elección conveniente de la cons-


tante a0 (que en principio es arbitraria), esta segunda solución se
escribe
' x (−ν &

(−1)n ' x (2n
J−ν (x) = . (10.4.11)
2 n! Γ(n − ν + 1) 2
n=0

/ N entonces las funciones Jν (x) y J−ν (x) son dos soluciones li-
Si 2ν ∈
nealmente independientes de la ecuación diferencial de Bessel (10.4.1),
cuya solución general (con las correspondientes constantes arbitrarias
C1 y C2 ) será
y(x) = C1 Jν (x) + C2 J−ν (x).
Obsérvese que si como hemos supuesto ν ≥ 0, 2ν ∈ / N, la función
Jν (x) es regular en x = 0, pero J−ν (x) presenta una singularidad en
el origen, que es un punto de ramificación.
388 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

b) Veamos ahora lo que sucede con la segunda solución de la ecuación


de Bessel en el caso de tener 2ν = p ∈ N. En este caso hay que
analizar con cuidado las ecuaciones que nos dan la recurrencia de los
coeficientes (10.4.10):

a1 [1 − 2ν] = 0, an−2 + an n(n − 2ν) = 0, n = 2, 3, . . .

que se convierten en

a1 [1 − p] = 0, an−2 + an n(n − p) = 0, n = 2, 3, . . .

y cuando el ı́ndice n toma exactamente el valor n = p se tiene:

ap−2 + 0 · ap = 0, es decir ap−2 = 0.

Hay que estudiar ahora dos situaciones que pueden presentarse: que
p sea par o que sea impar.

1. Si p es impar, ν = p/2 = k + 1/2, k ∈ N, y un cálculo un tanto


pesado (que el lector puede efectuar sin dificultad) nos conduce
al siguiente resultado:

y1 (x) = Jk+1/2 (x), y2 (x) = C1 Jk+1/2 (x) + C2 J−k−1/2 (x),

de modo que la solución general es simplemente

y(x) = C1 Jν (x) + C2 J−ν (x), ν = k + 1/2,

en perfecto acuerdo con lo obtenido unas lı́neas más arriba para


el caso de tener 2ν ∈
/ N. Nótese que esta situación corresponde
al caso B) del segundo teorema de Fuchs que analizamos en la
sección anterior.
2. Si p es par, ν = p/2 = k ∈ N, las ecuaciones de recurrencia son:

a1 [1 − 2k] = 0, an−2 + an n(n − 2k) = 0, n = 2, 3, . . .

Todos los coeficientes impares han de ser nulos y cuando n = 2k


se obtiene a2k−2 = 0. Pero entonces la recurrencia nos da como
consecuencia

a2k−4 = a2k−6 = · · · = a2 = a0 = 0,
10.4. ECUACIÓN DE BESSEL 389

contra la hipótesis de que a0 != 0. Por tanto, en este caso la


primera solución será, como ya hemos visto, Jk (x), pero la se-
gunda solución linealmente independiente no será J−k (x), que
es sencillo ver que verifica

J−k (x) = (−1)k Jk (x). (10.4.12)

Como vimos en la sección precedente, la segunda solución podrá


ser buscada en la forma

&
y2 (x) = Jk (x) ln x + bn xn−k .
n=0

No obstante, en el caso de las funciones de Bessel el procedi-


miento habitual no es éste, sino otro equivalente. Lo que se
hace es introducir las llamadas funciones de Bessel de segunda
especie o funciones de Neumann 5 , definidas como una combi-
nación lineal de funciones de Bessel (de modo que también serán
soluciones de la ecuación de Bessel):

cos νπ Jν (x) − J−ν (x)


Nν (x) = , ∀ν ∈ C. (10.4.13)
sen νπ
A veces en la literatura se encuentra también la notación equiva-
lente Nν (x) ≡ Yν (x), que preferimos no usar para evitar posibles
confusiones con los armónicos esféricos que introduciremos en el
capı́tulo siguiente. La solución general correspondiente a ν no
entero puede escribirse también

y(x) = C1 Jν (x) + C2 Nν (x),

sin más que despejar J−ν (x) en la ecuación (10.4.13). Se su-


giere al lector que pruebe la independencia lineal de Jν (x) y
Nν (x) para ν ∈ / Z, con lo que se tendrı́a la solución general de
la ecuación de Bessel para ν ∈ / Z (el mismo resultado es cierto si
ν ∈ Z, pero esto es más difı́cil de demostrar). Si observamos esta
misma ecuación veremos que para ν = k ∈ N las funciones Nν (x)
no parecen estar bien definidas (aparece una indeterminación del
tipo 0/0). De hecho sı́ lo están, aunque resultan ser singulares
5
Carl Gottfried Neumann (1832–1925), matemático alemán.
390 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

en el origen x = 0, como puede verse en la Figura 10.2, donde


se aprecia perfectamente la existencia de una singularidad en
x = 0, y también el carácter oscilante de estas funciones, ası́
como el amortiguamiento para valores grandes del argumento.

0.5

3 6 9
N2 HxL
-0.5
N1 HxL
-1
N0 HxL
-1.5

Figura 10.2: Algunas funciones de Neumann


de ı́ndice entero.

Para hallar la forma analı́tica exacta de las funciones Nk (x)


hemos de salvar la indeterminación que aparece al hacer ν → k
en (10.4.13), para lo cual aplicamos la regla de l’Hôpital6 , pero
¡atención!, a la variable ν:
+ ,
∂ν [cos νπ Jν (x) − J−ν (x)]

Nk (x) = lim
∂ν sen νπ
ν→k ∂

+ ,
−π sen νπ Jν (x) + cos νπ ∂J∂ν
ν (x)
− ∂J−ν (x)
= lim ∂ν
ν→k π cos νπ
/ 0
1 ∂Jν (x) k ∂J−ν (x)
= − (−1) .
π ∂ν ∂ν ν=k

Esta expresión está bien definida pero resulta tremendamente


complicada. La forma explı́cita puede hallarse en uno de los
problemas propuestos al final de este capı́tulo.

6
Guillaume François Antoine Marquis de l’Hôpital (1661–1704) fue un noble francés
(marqués) discı́pulo de Johann Bernouilli (1667-1748). Johann fue quien realmente des-
cubrió este resultado que se hizo popular gracias a un libro de l’Hôpital dedicado al
análisis matemático.
10.4. ECUACIÓN DE BESSEL 391

10.4.3 Algunas propiedades de las funciones de Bessel

Muchos matemáticos (especialmente aquellos que trabajaban en mecánica


celeste) llegaron de forma independiente a las funciones llamadas hoy de
Bessel, ası́ como a cientos de relaciones entre ellas. La literatura existente es
muy amplia7 . Hoy en dı́a los programas de cálculo simbólico por ordenador
(por ejemplo Mathematica, Maple, Reduce o Macsyma) son una herramienta
muy útil para manejar expresiones complicadas que involucran estas y otras
funciones especiales. Nos limitaremos por tanto a indicar únicamente algu-
nas de las propiedades más útiles de estas funciones.

1. Representación integral.
Las funciones de Bessel de primera especie pueden ser expresadas en
la forma
1
(x/2)ν 1 1
Jν (x) = √ (1 − t2 )ν− 2 eitx dt, (10.4.14)
Γ(ν + 12 ) π −1

siempre que Re(ν + 12 ) > 0. Por simetrı́a, la parte imaginaria de la


expresión anterior se anula y obtenemos una expresión equivalente,
que haciendo el cambio t = cos θ se escribe:
1
(x/2)ν 1 1
Jν (x) = √ (1 − t2 )ν− 2 cos(tx) dt
Γ(ν + 12 ) π −1
1 0
−(x/2)ν 1
=√ (1 − cos2 θ)ν− 2 cos(x cos θ) sen θ dθ
π Γ(ν + 2 ) π
1

' x (ν 1 π
1
= √ (sen θ)2ν cos(x cos θ) dθ (10.4.15)
2 π Γ(ν + 12 ) 0
' x (ν 1 π ∞
&
1 n (x cos θ)
2n
= √ (sen θ) 2ν
(−1) dθ
2 π Γ(ν + 12 ) 0 (2n)!
n=0
' x (ν ∞
& (−1)n x2n 1
1 π
= √ (sen θ)2ν (cos θ)2n dθ.
2 π Γ(ν + 12 ) n=0 (2n)! 0

7
Un libro clásico al respecto es el de Watson citado en la bibliografı́a.
392 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

La última integral se puede expresar como una función beta; para ello
hacemos el cambio de variable θ = α + π2 :
1 π 1 π
2
(sen θ) (cos θ) dθ =
2ν 2n
(cos α)2ν (−sen α)2n dα
0 − π2
1 π
2 1 1
=2 (sen α)2n (cos α)2ν dα = B(n + , ν + )
0 2 2
Γ(n + 12 ) Γ(ν + 12 )
= .
Γ(n + ν + 1)
Usando este resultado, podemos finalmente probar (10.4.14)
' x (ν 1

& (−1)n x2n Γ(n + 1 ) Γ(ν + 1 )
Jν (x) = √ 2 2
2 π Γ(ν + 12 ) n=0 (2n)! Γ(n + ν + 1)
' x (ν &∞
(−1)n x2n (n − 12 )(n − 32 ) · · · 12 Γ( 12 )
= √
2 (2n)! π Γ(n + ν + 1)
n=0
' x (ν &

(−1)n x2n (2n − 1)(2n − 3) · · · 1
=
2 (2n)! 2n Γ(n + ν + 1)
n=0
' x (ν &

(−1)n x2n 1
=
2 22n n! Γ(n + ν + 1)
n=0
' x (ν &

(−1)n ' x (2n
= ,
2 n! Γ(n + ν + 1) 2
n=0

que coincide con la fórmula (10.4.9), que es la que pretendı́amos de-


mostrar. Existen muchas otras representaciones integrales que no
vamos a considerar.
2. Fórmulas de recurrencia.
Un cálculo directo permite demostrar que
1 d E −ν F
− x Jν (x) = x−(ν+1) Jν+1 (x). (10.4.16)
x dx
En efecto,
+ ∞
,
1 d E −ν F 1 d 1 & (−1)n x2n
− x Jν (x) = −
x dx x dx 2ν n! Γ(n + ν + 1) 22n
n=0
10.4. ECUACIÓN DE BESSEL 393


1 1 & (−1)n 2n x2n−1
=−
x 2ν n! Γ(n + ν + 1) 22n
n=0

1 & (−1)n+1 x2n−2
= ν
2 (n − 1)! Γ(n + ν + 1) 22n−1
n=1
&∞
1 (−1)m x2m
=
2ν m! Γ(m + ν + 2) 22m+1
m=0
1

& (−1)m ' x (2m
=
2ν+1 m! Γ(m + ν + 1 + 1) 2
m=0

= x−(ν+1) Jν+1 (x).

Ası́ queda demostrada la fórmula (10.4.16). Por otro lado, efectuando


la derivada que aparece en esa ecuación tenemos:
1
− [−ν x−ν−1 Jν (x) + x−ν Jν! (x)] = x−(ν+1) Jν+1 (x);
x
multiplicando por −xν+1 y despejando llegamos a
ν
Jν! (x) = Jν (x) − Jν+1 (x). (10.4.17)
x
En particular, para ν = 0: J0! (x) = −J1 (x). Análogamente, a partir
de la igualdad
1 d ν
[x Jν (x)] = xν−1 Jν−1 (x) (10.4.18)
x dx
se prueba que
ν
Jν! (x) = − Jν (x) + Jν−1 (x). (10.4.19)
x
Sumando y restando (10.4.17) y (10.4.19) se tiene

2 Jν! (x) = Jν−1 (x) − Jν+1 (x); Jν (x) = Jν+1 (x) + Jν−1 (x).
x
(10.4.20)
La última expresión se denomina relación de recurrencia para las fun-
ciones de Bessel .
Unos resultados sencillos se obtienen al considerar en (10.4.14) el caso
particular ν = 1/2:
5 1 1 5
x 2
J 1 (x) = e dt =
itx
sen x.
2 2 π −1 πx
394 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

Usando ahora (10.4.18) se deduce


5
−1/2 1 d 1/2 2
x J− 1 (x) = [x J 1 (x)] ⇒ J− 1 (x) = cos x.
2 x dx 2 2 πx
3. Función generatriz.
Consideremos la siguiente función de dos variables:
x 1
g(x, t) = e 2 (t− t ) . (10.4.21)
Vamos a desarrollar esta función en serie de potencias en la variable
t. Habrá potencias positivas y negativas:
+∞ $ % ,+ ∞ $ ,
xt −x & xt r 1 & −x %s 1
g(x, t) = e 2 e 2t =
2 r! 2t s!
r=0 s=0

& (−1)s tr−s ' x (r+s ∞
& ∞
& (−1)s tn ' x (n+2s
= =
r! s! 2 n=−∞ s=0
(n + s)! s! 2
r,s=0
+ ,

& ' x (n &

(−1)s ' x (2s &∞
= t n
= Jn (x) tn .
n=−∞
2 s! (n + s)! 2 n=−∞
s=0

Debido a esta interesante propiedad que acabamos de probar, g(x, t)


se denomina la función generatriz de las funciones de Bessel de ı́ndice
entero8 .
De aquı́ surgen muchas relaciones entre las funciones de Bessel de
ı́ndice entero. Por ejemplo, haciendo t = 1:

&
1= Jn (x).
n=−∞

Teniendo en cuenta que estas funciones presentan la simetrı́a indicada


en (10.4.12), J−n (x) = (−1)n Jn (x), en el sumatorio anterior sólo
quedan las funciones de ı́ndice par, de manera que

&
1 = J0 (x) + 2 J2 (x) + 2 J4 (x) + 2 J6 (x) + · · · = J0 (x) + 2 J2n (x).
n=1
(10.4.22)
8
Como veremos en el capı́tulo siguiente, muchas otras funciones especiales poseen
también su función generatriz, y de hecho existe una teorı́a que las estudia y en la que
no vamos a entrar aquı́.
10.4. ECUACIÓN DE BESSEL 395

Otras fórmulas interesantes resultan al efectuar el cambio de variable


t = eiθ , con lo que t − t−1 = 2i sen θ:

& ∞
& ∞
&
eix sen θ = Jn (x) einθ = Jn (x) cos nθ + i Jn (x) sen nθ
n=−∞ n=−∞ n=−∞

& ∞
&
= J0 (x) + 2 J2n (x) cos 2nθ + 2i J2n−1 (x) sen (2n − 1)θ.
n=1 n=1

Por tanto

&
cos(x sen θ) = J0 (x) + 2 J2n (x) cos 2nθ; (10.4.23)
n=1

&
sen (x sen θ) = 2 J2n−1 (x) sen (2n − 1)θ. (10.4.24)
n=1

Las fórmulas anteriores pueden ser vistas como dos desarrollos en serie
de Fourier. Dando a θ el valor π/2 obtenemos un par de desarrollos de
las funciones trigonométricas en términos de las funciones de Bessel
de ı́ndice natural:

&
cos x = J0 (x) + 2 (−1)n J2n (x);
n=1

&
sen x = 2 (−1)n+1 J2n−1 (x).
n=1

4. Relación de cierre y comportamiento asintótico.


En la práctica no es infrecuente tener que resolver integrales que in-
volucran funciones de Bessel. Remitimos a la bibliografı́a para re-
solver estos problemas, pero no queremos dejar de indicar un resul-
tado importante, la llamada la relación de cierre
1 ∞
1 1
Jν (x y) Jν (x! y) y dy = δ(x − x! ), ν>− , (10.4.25)
0 x 2

siendo δ(x − x! ) la delta de Dirac.

Por otro lado, en las aplicaciones fı́sicas con frecuencia se necesita


saber cuál es el comportamiento de una función de Bessel para valores
396 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

grandes de su argumento, es decir, su comportamiento asintótico.


Puede demostrarse que el término dominante del desarrollo asintótico
de estas funciones (válido para −π < arg x < π) es

5 / ! $ % " ! $ % "0
2 1 π 4ν 2 − 1 1 π
Jν (x) ∼ cos x − ν + − sen x − ν + ;
πx 2 2 8x 2 2
5 / ! $ % " ! $ % "0
2 1 π 4ν 2 − 1 1 π
Nν (x) ∼ sen x − ν + + cos x − ν + .
πx 2 2 8x 2 2

Estos resultados dan cuenta tanto del carácter oscilante de estas


funciones como de su decrecimiento en valor absoluto cuando x → ∞,
cosas que ya se entreveı́an en las gráficas presentadas con anterioridad.

5. Funciones de Bessel modificadas y funciones de Hänkel.


En determinados problemas fı́sicos (en particular aquellos relaciona-
dos con fenómenos de difusión) aparece una ecuación diferencial que
no es exactamente (10.4.1), pero que se le parece mucho:
$ %
1 ν2
y !! (x) + y ! (x) − 1 + 2 y(x) = 0. (10.4.26)
x x

Dado que esta ecuación se puede obtener efectuando en la ecuación de


Bessel el cambio de variable x → ix, las soluciones de esta ecuación
de Bessel modificada son Jν (ix), J−ν (ix) y Nν (ix). No obstante, el
convenio habitual consiste en introducir nuevas funciones definidas
como
' x (ν &

1 ' x (2n
Iν (x) := = e−iνπ/2 Jν (ix),
2 n! Γ(n + ν + 1) 2
n=0
' x (−ν &

1 ' x (2n
I−ν (x) := = eiνπ/2 J−ν (ix),
2 n! Γ(n − ν + 1) 2
n=0

y denominadas funciones modificadas de Bessel. Cuando ν es un


número entero se verifica In (x) = I−n (x), y es preciso introducir las
funciones
π I−ν (x) − Iν (x)
Kν (x) = , (10.4.27)
2 sen νπ
que tienen un comportamiento bien determinado para ν ∈ Z y per-
miten definir una segunda solución linealmente independiente. Estas
10.5. ECUACIÓN HIPERGEOMÉTRICA 397

funciones modificadas de Bessel verifican propiedades similares a las


de las funciones de Bessel ordinarias, por ejemplo se puede demostrar
fácilmente que admiten una función generatriz:

&
x 1
e 2 (t+ t ) = In (x) tn . (10.4.28)
n=−∞

El comportamiento cualitativo de las funciones modificadas de Bessel


de ı́ndice entero se muestra en la Figura 10.3.
En ocasiones pueden aparecer las llamadas funciones de Hänkel9 ,
definidas a partir de las de Bessel como sigue:
Hν(1) (x) := Jν (x) + i Nν (x), (10.4.29)
Hν(2) (x) := Jν (x) − i Nν (x). (10.4.30)
No entraremos aquı́ en el estudio de sus propiedades ni de sus aplica-
ciones a la resolución de problemas en Fı́sica.

2 K0 HxL

K1 HxL
1
I0 HxL

I1 HxL
1 2 3
Figura 10.3: Algunas funciones de Bessel
modificadas. Las curvas que crecen para x
creciente son In y las que decrecen son Kn .

10.5 Ecuación hipergeométrica

El estudio de las funciones especiales que aparecen como soluciones en forma


de serie de ciertas ecuaciones diferenciales fue impulsado enormemente por
9
Hermann Hänkel (1839–73), matemático alemán.
398 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

un artı́culo de Gauss de 1812 sobre la función hipergeométrica y su ecuación


diferencial, si bien éstas eran ya conocidas por Euler.
Comencemos introduciendo la ecuación hipergeométrica 10 , que es una
ecuación diferencial dependiente de tres parámetros:
x(1 − x)y !! + [c − (a + b + 1)x]y ! − aby = 0. (10.5.1)
Las constantes a, b, c pueden ser complejas y no se han dispuesto en la
ecuación de forma arbitraria, si no para facilitar la forma final de las solu-
ciones, como pronto se verá. Es fácil comprobar que esta ecuación presenta
tres puntos singulares regulares en x = 0, 1 e ∞. Analicemos las soluciones
en torno de estas singularidades.

10.5.1 Solución en un entorno de x = 0

Probamos con una solución en serie de Frobenius:


&∞
y= an xn+λ .
n=0
Sustituyendo en (10.5.1) tenemos

& ∞
&
0 = an (n + λ)(n + λ − 1) xn+λ−1 − an (n + λ)(n + λ − 1) xn+λ
n=0 n=0

& ∞
& ∞
&
+ c an (n + λ) xn+λ−1 − (a + b + 1) an (n + λ) xn+λ − a b an xn+λ .
n=0 n=0 n=0

Tomando el primer sumando de cada una de las dos series que presentan
potencias del tipo xn+λ−1 y agrupando los restantes términos con igual
potencia de x

&
0 = (a0 λ(λ − 1) + c a0 λ) xλ−1 + an (n + λ)(n + λ − 1 + c) xn+λ−1
n=1

&
− an [(n + λ)(n + λ − 1 + a + b + 1) + ab] xn+λ ,
n=0
que, con un cambio de ı́ndice en el primer sumatorio, puede escribirse
0 = a0 λ(λ − 1 + c)xλ−1
&∞
+ {an+1 (n + λ + 1)(n + λ + c) − an [(n + λ)(n + λ + a + b) + ab]}xn+λ .
n=0
10
La denominación “hipergeométrica” se debe a Pfaff, amigo y profesor de Gauss.
10.5. ECUACIÓN HIPERGEOMÉTRICA 399

Para que se verifique la igualdad, todos los coeficientes de las diversas


potencias de x han de ser nulos; esta condición nos proporciona, como ya
sabemos, la ecuación indicial y la ley de recurrencia de los coeficientes:

a0 λ(λ − 1 + c) = 0, a0 != 0; (10.5.2)
an+1 (n + λ + 1)(n + λ + c) = an [(n + λ)(n + λ + a + b) + ab], (10.5.3)

con n = 0, 1, 2, . . . De la ecuación indicial obtenemos los dos posibles valores


de λ: λ1 = 0 y λ2 = 1 − c. Analicemos ahora las dos soluciones que surgen
de aquı́:

1. Si λ = λ1 = 0, la ecución de recurrencia (10.5.3) se reduce a

an+1 (n + 1)(n + c) = an (n + a)(n + b), (10.5.4)

de donde

a·b
n = 0 : a1 = a0 ;
1·c
(a + 1)(b + 1) (a + 1)a (b + 1)b
n = 1 : a2 = a1 = a0 ;
2(c + 1) 2 · 1 (c + 1)c
(a + 2)(b + 2) (a + 2)(a + 1)a (b + 2)(b + 1)b
n = 2 : a3 = a2 = a0 ;
3(c + 2) 3! (c + 2)(c + 1)c
.. .. .. ..
. . . .

A partir de este resultado, y por inducción, se deduce que

(a + n − 1)(a + n − 2) · · · a (b + n − 1)(b + n − 2) · · · b
an = a0
n! (c + n − 1)(c + n − 2) · · · c
Γ(c) Γ(a + n) Γ(b + n) a0
= , (10.5.5)
Γ(a) Γ(b) Γ(c + n) n!

de modo que la serie solución es



Γ(c) & Γ(a + n) Γ(b + n) xn
y1 (x) = x0 a0 .
Γ(a) Γ(b) Γ(c + n) n!
n=0
400 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

Se llama función hipergeométrica 11 a la serie que acabamos de escribir,


prescindiendo de la constante arbitraria a0 :

Γ(c) & Γ(a + n) Γ(b + n) xn
2 F1 (a, b; c; x) := . (10.5.6)
Γ(a) Γ(b) Γ(c + n) n!
n=0
La función ası́ definida depende de los tres parámetros a, b, c. Obsér-
vese que la función permanece invariante ante la permutación de a y
b:
2 F1 (a, b; c; x) = 2 F1 (b, a; c; x).
Si a o b toman valores enteros negativos, entonces la serie (10.5.6) se
reduce a un polinomio. Más adelante veremos que es lo que ocurre
para c entero. La extraña notación con subı́ndices que se ha intro-
ducido para la función hipergeométrica se justifica en los diferentes
papeles que juegan los parámetros a y b por un lado y c por otro.
2. Supongamos ahora que λ = λ2 = 1 − c y busquemos la segunda
solución linealmente independiente. Primero percatémonos de que
λ1 − λ2 = c − 1 no es entero si c no es entero. Analicemos ahora el
caso más sencillo c ∈
/ Z. La ley de recurrencia (10.5.3) se convierte en
an+1 (n + 1)(n + 2 − c) = an [(n + 1 − c)(n + 1 − c + a + b) + ab],
o bien
(n + 1 − c + a)(n + 1 − c + b)
an+1 = an .
(n + 1)(n + 2 − c)
Es una recurrencia parecida a la anterior:
(1 + a − c)(1 + b − c)
n = 0 : a1 = a0 ;
1(2 − c)
(2 + a − c)(2 + b − c)
n = 1 : a2 = a1
2(3 − c)
(2 + a − c)(1 + a − c) (2 + b − c)(1 + b − c)
= a0 ;
2 · 1 (3 − c)(2 − c)
(3 + a − c)(3 + b − c)
n = 2 : a3 = a2
3(4 − c)
(3 + a − c)(2 + a − c)(1 + a − c) (3 + b − c)(2 + b − c)(1 + b − c)
= a0 ;
3! (4 − c)(3 − c)(2 − c)
.. .. .. ..
. . . .
11
Esta denominación se debe a que esta función puede considerarse como una genera-
lización de la serie geométrica 1 + x + x2 + x3 + · · ·.
10.5. ECUACIÓN HIPERGEOMÉTRICA 401

Por tanto,
(n + a − c)(n − 1 + a − c) · · · (1 + a − c)(n + b − c)(n − 1 + b − c) · · · (1 + b − c)
an =
n! (n + 1 − c)(n − c) · · · (2 − c)
Γ(2 − c) Γ(n + 1 + a − c)Γ(n + 1 + b − c) a0
= .
Γ(1 + a − c)Γ(1 + b − c) Γ(n + 2 − c) n!

Con esto la segunda solución será


&∞
a0 Γ(2 − c) Γ(1 + a − c + n)Γ(1 + b − c + n) xn
y2 (x) = x1−c .
Γ(1 + a − c) Γ(1 + b − c) n=0 Γ(2 − c + n) n!

Comparando con la función que hemos llamado 2 F1 (a, b; c; x), pode-


mos escribir

y2 (x) = a0 x1−c 2 F1 (1 + a − c, 1 + b − c; 2 − c; x).

Finalmente tenemos que la solución general de la ecuación hiper-


geométrica cuando c ∈
/ Z es

y(x) = A 2 F1 (a, b; c; x) + B x1−c 2 F1 (1 + a − c, 1 + b − c; 2 − c; x),


(10.5.7)
siendo A y B constantes arbitrarias.

3. Analicemos ahora lo que ocurre si c ∈ Z. En la primera solución


2 F1 (a, b; c; x) aparecen términos con coeficientes de la forma

Γ(c) 1
= ,
Γ(c + n) (c + n − 1)(c + n − 2) · · · c
y en la segunda
Γ(2 − c) 1
= ,
Γ(2 − c + n) (1 − c + n)(−c + n) · · · (2 − c)
con lo cual

(a) Si c ∈ {2, 3, 4, . . .}, los términos del segundo tipo se hacen in-
finito a partir de uno dado, lo que significa que la segunda serie
hipergeométrica no será la solución.
(b) Si c ∈ {0, −1, −2, −3 . . .}, los términos del primer tipo se hacen
infinito a partir de uno dado, de modo que la primera función
hipergeométrica tampoco será la solución.
402 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

(c) Si c = 1, entonces λ1 = λ2 , y habrá que buscar la segunda


solución con un término logarı́tmico.

En los tres casos mencionados, la solución es realmente complicada,


y no vamos a dar su expresión12 .

10.5.2 Algunas propiedades de la función hipergeométrica

Más interesante que buscar la forma explı́cita de las soluciones en el caso


c ∈ Z (cosa que se harı́a usando la técnica comentada al estudiar el método
de Frobenius), resulta el estudio de algunas de las propiedades de la función
hipergeométrica (10.5.6)

Γ(c) & Γ(a + n) Γ(b + n) xn
2 F1 (a, b; c; x) := .
Γ(a) Γ(b) Γ(c + n) n!
n=0

• Ya hemos comentado que si los parámetros a o b toman alguno de


los valores {0, −1, −2, −3, . . .}, entonces la serie anteriormente escrita
se reduce a un polinomio (aparentemente hay una indeterminación
debido a la presencia de la función gamma de un número negativo,
pero un análisis mas cuidadoso nos convencerá de que no hay ninguna
dificultad). En este caso, la función converge para todo valor de la
variable x (que puede tomarse real, pero también compleja).

• Si la serie no se trunca, podemos calcular su radio de convergencia.


Para ello evaluamos

2 2 2 2
2 an xn 22 2 Γ(a + n) Γ(b + n) (n − 1)! Γ(c + n − 1) 2
lim 22 n−1 2 = lim 22 x22
n→∞ an−1 x n→∞ n! Γ(c + n) Γ(a + n − 1) Γ(b + n − 1)
2 2
2 (a + n − 1) (b + n − 1) 2
= lim 22 x22 = |x|.
n→∞ n (c + n − 1)

De aquı́ se sigue que si |x| < 1 la serie hipergeométrica 2 F1 (a, b; c; x)


es convergente. Obsérvese que, al igual que la serie geométrica,
2 F1 (a, b; c; x), con c no entero, considerada como función de la va-
riable compleja x, es analı́tica en el interior del disco unidad. Para
probarlo, aplı́quese el criterio del cociente a la serie (10.5.6).
12
Si el lector necesita alguna vez utilizarla, le remitimos al libro de Abramowitz y
Stegun citado en la bibliografı́a.
10.5. ECUACIÓN HIPERGEOMÉTRICA 403

• Demostremos a continuación la siguiente propiedad de las funciones


hipergeométricas:

dm Γ(a + m) Γ(b + m) Γ(c)


2 F1 (a, b; c; x) = 2 F1 (a+m, b+m; c+m; x)
dx m Γ(a) Γ(b) Γ(c + m)
(10.5.8)
A partir de la definición (10.5.6), derivando m veces y haciendo el
cambio k = n − m, es decir n = k + m, tenemos:


dm Γ(c) & Γ(a + n)Γ(b + n)
2 F 1 (a, b; c; x) = n . . . (n − m + 1)xn−m
dxm Γ(a)Γ(b) n=0 Γ(n + 1)Γ(c + n)

Γ(c) & Γ(a + n)Γ(b + n) n . . . (n − m + 1) n−m
= x
Γ(a)Γ(b) n=m Γ(c + n) n!

Γ(c) & Γ(a + m + k)Γ(b + m + k) (k + m) . . . (k + 1) k
= x
Γ(a)Γ(b) Γ(c + m + k) (k + m)!
k=0


Γ(c) & Γ(a + m + k)Γ(b + m + k) 1 k
= x
Γ(a)Γ(b) Γ(c + m + k) k!
k=0


Γ(c)Γ(a + m)Γ(b + m)Γ(c + m) & Γ(a + m + k)Γ(b + m + k) k
= x
Γ(a)Γ(b)Γ(c + m)Γ(a + m)Γ(b + m) Γ(k + 1)Γ(c + m + k)
k=0

Γ(a + m)Γ(b + m)Γ(c)


= 2 F1 (a + m, b + m; c + m; x).
Γ(a)Γ(b)Γ(c + m)

• La función hipergeométrica de Gauss sirve para representar una gran


variedad de funciones, por ejemplo:

ln(1 − x)
2 F1 (1, 1; 2; x) =− ;
x
$ % $ %
1 3 2 1 1+x
2 F1 , 1; ; x = ln ;
2 2 2x 1−x
$ %
1 3 arctan x
2 F1 , 1; ; −x = 2
;
2 2 x
$ % 6 $ %
1 1 3 2 3 2 arcsin x
F
2 1 , ; ; x = 1 − x 2 F
2 1 1, 1; ; x = ;
2 2 2 2 x

2 F1 (a, b; b; x) = (1 − x)−a .
404 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

Muchas de las funciones especiales que hemos visto o que se verán


en el capı́tulo siguiente son casos particulares de la función hiper-
geométrica, por ejemplo:
$ %
1 1 2
2 F1 , ; 1; x = K(x2 );
2
2 2 π
$ %
1 1 2
2 F1 , − ; 1; x2 = E(x2 );
2 2 π
$ %
1−x
2 F1 −n, n + 1; 1; = Pn (x) (Polinomios de Legendre);
2
$ %
1 1−x
2 F1 −n, n; ; = Tn (x) (Polinomios de Chevichev).
2 2

• La función hipergeométrica admite la siguiente representación inte-


gral, válida si Re(c) > Re(b) > 0:
1 1
Γ(c)
2 F1 (a, b; c; x) = tb−1 (1 − t)c−b−1 (1 − tx)−a dt.
Γ(b)Γ(c − b) 0

10.5.3 Soluciones en torno de x = 1 y x = ∞

Para las soluciones en torno de x = 1, aplicamos el método de Frobenius y


&∞
buscamos soluciones del tipo y(x) = (x − 1)λ ãn (x − 1)n , o si se prefiere
n=0


& ∞
&
y(x) = (1 − x) λ
an (1 − x) =
n
an (1 − x)n+λ .
n=0 n=0

No nos detendremos en detallar los cálculos, pero puede verificarse que la


solución general de la ecuación hipergeométrica en un entorno del punto
x = 1 (y para el caso c − b − a ∈/ Z) es

y(x) = A 2 F1 (a, b; a + b + 1 − c; 1 − x)
+B (1 − x)c−b−a 2 F1 (c − b, c − a; 1 + c − a − b; 1 − x), |x| < 1.

Ya vimos como hay que proceder para resolver una ecuación en un


entorno del infinito. Efectuando los cálculos, resulta que la primera solución
10.6. ECUACIÓN HIPERGEOMÉTRICA CONFLUENTE 405

de la ecuación hipergeométrica en el infinito es


$ %
−a 1
y1 (x) = x 2 F1 a, 1 − c + a; a − b + 1; ,
x
y la segunda es
$ %
1
y2 (x) = x−b 2 F1 b, b − c + 1; b − a + 1; .
x
Estas soluciones son linealmente independientes siempre y cuando a − b no
sea entero, y son analı́ticas en la corona |x| > 1. Los cálculos de estos dos
casos x = 1 y x = ∞ son sencillos y se dejan para que el lector se ejercite.

10.6 Ecuación hipergeométrica confluente

Vamos a analizar otra ecuación diferencial bastante importante. En primer


lugar veamos como surge a partir de la ecuación hipergeométrica (10.5.1)

x(1 − x)y !! + [c − (a + b + 1)x]y ! − aby = 0.

Si en esta ecuación hacemos el cambio de variable independiente x = t/b y


aplicamos la regla de la cadena, tenemos
$ %
d dt d d d2 d d 2 d
2
= =b ; = b = b .
dx dx dt dt dx2 dx dt dt2
Al sustituir esto en la ecuación hipergeométrica resulta:
$ % 2
! "
t t 2 d y t dy
1− b 2
+ c − (a + b + 1) b − a b y = 0.
b b dt b dt
La nueva función incógnita y(x) = y(t/b) := w(t) aparece en esta ecuación
transformada. Simplificando y haciendo desaparecer la variable y para dar
paso a la variable w(t) llegamos a
$ % ! "
t d2 w(t) a+b+1 dw(t)
t 1− + c− t − a w(t) = 0.
b dt2 b dt
Se toma ahora el lı́mite b → ∞, con lo que la ecuación se reduce a
d2 w(t) dw(t)
t 2
+ [c − t] − a w(t) = 0.
dt dt
406 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

Esta es la ecuación que nos interesa; prescindiendo de las variables (w, t)


que nos han servido para deducirla, y volviendo a la notación habitual
(y, x), la ecuación hipergeométrica confluente, también llamada ecuación
de Kummer13 , se escribe:

xy !! + (c − x)y ! − ay = 0. (10.6.1)

Es sencillo comprobar que x = 0 es un punto singular regular de esta


ecuación diferencial; además existe otra singularidad en x = ∞, pero se
trata de una singularidad irregular. De hecho, al hacer b → ∞, estamos
llevando el punto singular x = 1 de la hipergeométrica al infinito, con
lo cual hacemos aparecer allı́ la irregularidad (el término “confluente” da
cuenta de este desplazamiento de la singularidad para coincidir con la ya
existente en el infinito).
Para resolver esta ecuación en torno de x = 0 procedemos como ya
hamos visto: buscamos la solución como una serie de Frobenius

&
y= an xn+λ .
n=0

Sus derivadas son



& ∞
&
y! = an (n + λ) xn+λ−1 , y !! = an (n + λ)(n + λ − 1) xn+λ−2 .
n=0 n=0

Sustituyendo en (10.6.1)

& ∞
&
an (n + λ)(n + λ − 1) xn+λ−1 + c an (n + λ) xn+λ−1
n=0 n=0

& ∞
&
− an (n + λ) xn+λ − a an xn+λ = 0,
n=0 n=0

o bien:

& ∞
&
an (n + λ)(n + λ − 1 + c) x n+λ−1
− an (n + λ + a) xn+λ = 0.
n=0 n=0
13
Ernst Eduard Kummer (1810–93), matemático alemán recordado por sus trabajos
sobre series hipergeométricas, teorı́a de números y funciones algebraicas.
10.6. ECUACIÓN HIPERGEOMÉTRICA CONFLUENTE 407

Separando el primer término del primer sumatorio, y agrupando los dos


sumatorios restantes en uno solo:
&∞
a0 λ(λ−1+c) xλ−1 + xn+λ {an+1 (n+λ+1)(n+λ+c)−an (n+λ+a)} = 0.
n=0

De aquı́ obtenemos la ecuación indicial para la ecuación hipergeométrica


confluente
λ(λ − 1 + c) = 0 ⇒ λ1 = 0, λ2 = 1 − c, (10.6.2)
que resulta ser la misma que para la ecuación hipergeométrica; también
deducimos de aquı́ la relación de recurrencia para los coeficientes de la
serie solución que vamos buscando:
(n + λ + 1)(n + λ + c) an+1 = (n + λ + a) an ; n = 0, 1, . . . (10.6.3)
Pasemos al cálculo explı́cito de las soluciones.

10.6.1 Solución correspondiente a λ = λ1 = 0

La ecuación de recurrencia con λ = 0 es


(n + a)
(n + 1)(n + c) an+1 = (n + a) an ⇒ an+1 = an ,
(n + 1)(n + c)
más explı́citamente:
a
n=0: a1 = a0 ;
1·c
(a + 1) (a + 1)a
n=1: a2 = a1 = a0 ;
2(c + 1) 2 · 1 (c + 1)c
(a + 2) (a + 2)(a + 1)a
n=2: a3 = a2 = a0 ;
3(c + 2) 3! (c + 2)(c + 1)c
.. .. ..
. . .
(a + n − 1) · · · a Γ(c) Γ(a + n)
n−1: an = a0 = a0 .
n! (c + n − 1) · · · c Γ(a) Γ(c + n) n!
Ası́ pues, la primera solución de esta ecuación es cualquier múltiplo de la
llamada función hipergeométrica confluente o función de Kummer:

Γ(c) & Γ(a + n) xn
1 F1 (a; c; x) := . (10.6.4)
Γ(a) Γ(c + n) n!
n=0
408 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

En algunos libros aparece la notación equivalente 1 F1 (a; c; x) ≡ M (a, c; x),


pero hemos preferido la notación más precisa usando subı́ndices que ya se
mencionó al estudiar de la función hipergeométrica.
Observemos de lo anterior que si a ∈ {0, −1, −2, . . .} la serie se trunca
y la función se reduce a un polinomio.
Por otro lado, si c ∈ {0, −1, −2, . . .}, la solución que hemos hallado no
tiene sentido. Lo que ocurre es que entonces tenemos
λ1 − λ2 = c − 1 ∈ {−1, −2, −3, . . .},
y sabemos, por el segundo teorema de Fuchs, que la solución no es simple-
mente una serie de Frobenius y ha de haber un término logarı́tmico.

10.6.2 Solución correspondiente a λ = λ2 = 1 − c

La ecuación de recurrencia con λ = 1 − c es


(n + a + 1 − c)
(n+2−c)(n+1) an+1 = (n+a+1−c) an ⇒ an+1 = an ,
(n + 2 − c)(n + 1)
De manera más detallada:
a+1−c
n=0: a1 = a0 ;
1 · (2 − c)
(a + 2 − c) (a + 2 − c)(a + 1 − c)
n=1: a2 = a1 = a0 ;
2(3 − c) 2 · 1 (3 − c)(2 − c)
(a + 3 − c) (a + 3 − c)(a + 2 − c)(a + 1 − c)
n=2: a3 = a2 = a0 ;
3(4 − c) 3! (4 − c)(3 − c)(2 − c)
.. .. ..
. . .
(a + n − c) · · · (a + 1 − c)
n−1: an = a0
n! (n + 1 − c) · · · (2 − c)
Γ(2 − c) Γ(a + n + 1 − c)
= a0 .
Γ(a + 1 − c) Γ(n + 2 − c) n!
Tras esto, la segunda solución será:

Γ(2 − c) & Γ(a + n + 1 − c) xn
y2 (x) = a0 x 1−c
Γ(a + 1 − c) Γ(n + 2 − c) n!
n=0
= a0 x1−c 1 F1 (a + 1 − c; 2 − c; x).
10.6. ECUACIÓN HIPERGEOMÉTRICA CONFLUENTE 409

Fijémonos que esta solución no tiene sentido para c ∈ {2, 3, 4, . . .}, y que
para c = 1 tenemos de nuevo la solución correspondiente a λ1 . En estos
casos sigue siendo válido el comentario que ya hemos hecho anteriormente:
la función hipergeométrica confluente no aporta la solución completa y hay
que buscarla con término logarı́tmico. No nos preocuparemos del caso c ∈ Z
ya que la solución resulta excesivamente complicada. Para c ∈ / Z la solución
general es

y(x) = A 1 F1 (a; c; x) + B x1−c 1 F1 (a + 1 − c; 2 − c; x). (10.6.5)

10.6.3 Algunas propiedades de interés

1. La función hipergeométrica confluente es una función entera, como


función de variable compleja.. Para demostrar esto sólo hay que eva-
luar el radio de convergencia de la serie (10.6.4). Además, su derivada
m-ésima verifica

dm Γ(a + m) Γ(c)
1 F1 (a; c; x) = 1 F1 (a + m; c + m; x). (10.6.6)
dxm Γ(a) Γ(c + m)

2. Si a ∈ {0, −1, −2, . . .} la función hipergeométrica confluente (10.6.4)


se reduce a un polinomio.

3. La función hipergeométrica confluente se obtiene como un lı́mite de


la función hipergeométrica:

lim 2 F1 (a, b; c; x/b) = 1 F1 (a; c; x). (10.6.7)


b→∞

4. La igualdad
1 F1 (a; c; x) = ex 1 F1 (c − a; c; −x) (10.6.8)

se denomina “primera fórmula de Kummer”.

5. La función hipergeométrica confluente admite la siguiente representa-


ción integral, válida si Re(c) > Re(a) > 0:
1
Γ(c) 1
1 F1 (a; c; x) = ex t ta−1 (1 − t)c−a−1 dt. (10.6.9)
Γ(a) Γ(c − a) 0
410 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

6. Muchas funciones especiales ya conocidas por el lector resultan ser


casos particulares de la función hipergeométrica confluente, por ejem-
plo:
1 x $ %
2 −t2 2x 1 3
erf(x) = √ e dt = √ 1 F1 ; ; −x ;
2
π 0 π 2 2
1 x
xa
γ(a, x) = e−t ta−1 dt = 1 F1 (a; a + 1; −x), Re(a) > 0;
0 a
$ %
e−i x ' x (ν 1
Jν (x) = 1 F1 ν + ; 2ν + 1; 2ix ;
Γ(ν + 1) 2 2
$ %
e−x ' x (ν 1
Iν (x) = F
1 1 ν + ; 2ν + 1; 2x .
Γ(ν + 1) 2 2

10.7 Funciones hipergeométricas generalizadas

Como ya se ha comentado, la notación utilizada para las funciones hiper-


geométrica 2 F1 (a, b; c; x) e hipergeométrica confluente 1 F1 (a; c; x) puede
parecer a primera vista algo extraña y complicada. La explicación de usar
esta simbologı́a es que se trata de casos particulares de unas funciones
hipergeométricas más generales que pueden aparecer en ocasiones, y que
están definidas mediante el siguiente desarrollo en serie:


Γ(21 ) · · · Γ(2q ) & Γ(a1 + n) · · · Γ(ap + n) xn
p Fq (a1 , . . . , ap ; 21 , . . . , 2q ; x) = ,
Γ(a1 ) · · · Γ(ap ) n=0 Γ(21 + n) · · · Γ(2q + n) n!

en el cual intervienen p + q parámetros en la forma indicada. Obviamente


los primeros a1 , . . . , ap son permutables entre si, y también los segundos
31 , . . . , 3q entre si, sin que la función sufra ninguna alteración.

10.8 Problemas

1. Pruébese que J0 (kx) (donde k es cualquier constante) es solución de la


ecuación
y %% + x−1 y % + k 2 y = 0.
10.8. PROBLEMAS 411

2. Hállese las soluciones de la ecuación de Airy14 que aparece en ciertos pro-


blemas de electromagnetismo y de mecánica cuántica

y %% − xy = 0.

Sus soluciones son las funciones de Airy15 Ai (x) y Bi (x).


3. Resuélvanse las siguientes ecuaciones diferenciales por el método de desa-
rrollo en serie de potencias:
a) 4x2 y %% + 4xy % − y = 0.
b) (2x + 1)y %% − 4(x + 1)y % + 4y = 0.
c) y %% + xy % + y = 0.
d) xy %% + (p − x)y % − y = 0. Considérense todos los posibles valores reales
de p y analı́cese toda la casuı́stica.
e) 4xy %% + 2y % + y = 0.
f) x2 y %% + (x − 1)xy % − (x − 1)y = 0.
g) x(1 − x)y %% + (1 − 5x)y % − 4y = 0.
h) 2xy %% + (2x + 1)y % + 2y = 0.
i) 2xy %% + (3 − 2x)y % − 2y = 0.
j) (x2 + 1)y %% − 2xy % + 2y = 0.
4. Resuélvase la ecuación diferencial

x2 y %% + (x2 + x)y % + y = 0

usando el método de Frobenius, intentando dar una forma cerrada a las


series que aparecen.
5. Resuélvase la ecuación diferencial

x2 y %% + x2 y % − 2y = 0

usando el método de Frobenius. Demuéstrese que una de las series no tiene


infinitos términos, y dése la otra solución en forma cerrada.

6. En la ecuación de Bessel de orden p efectúese la transformación u = y x.
Utı́licese el resultado obtenido para resolver la ecuación de Bessel de ı́ndice
p = 1/2.
14
George Biddell Airy (1801–92), astrónomo británico que realizó importantes con-
tribuciones en matemáticas, fı́sica (estudió las franjas de interferencia y realizó un análisis
matemático del arco iris) y astronomı́a.
15
Pueden consultarse en el libro de Abramowitz y Stegun.
412 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

7. Resuélvase por desarrollo en serie de Taylor la ecuación

y %% + x−1 y % − y = 0.

La solución ası́ obtenida que verifica y(0) = 1 se denota por I0 (x) y se


denomina “función de Bessel modificada de orden cero”. Pruébese que
I0 (x) = J0 (ix).
8. Haciendo los cambios de variables ξ = λxb , y(ξ) = x−a z(x), en la ecuación
diferencial y %% (ξ) + ξ −1 y % (ξ) + y(ξ) = 0, pruébese que

z(x) = αxa J0 (λxb ) + βxa N0 (λxb ),

donde α, β y λ son constantes, es la solución general de

d2 z 1 − 2a dz a2 + λ2 b2 x2b
+ + z = 0.
dx2 x dx x2

9. Pruébese que [xJ1 (x)]% = xJ0 (x).


10. Demuéstrese que cuando x > 0 el wronskiano W (J0 , N0 ) debe ser de la
forma cx−1 . Determı́nese el valor de c.
11. Derı́vese la solución particular
1 x 1 c
π π
yp (x) = N0 (x) ξ m J0 (ξ)dξ + J0 (x) ξ m N0 (ξ)dξ
2 0 2 x

de la ecuación diferencial no homogénea

y %% (x) + x−1 y % (x) + y(x) = xm−1 .

12. Considérese la siguiente ecuación diferencial y %% +xy = 0. Hállese su√


solución
general, para lo cual se recomienda efectuar la sustitución y = z x, y el
cambio de variable x = (3t/2)2/3 .
13. Pruébese que
a) (1 + x)p = 2 F1 (−p, b; b; −x). b) ln(1 + x) = x 2 F1 (1, 1; 2; −x).
14. Resuélvase por desarrollo en serie de Taylor la ecuación

y %% + x−1 y % + (1 − x−2 )y = 0.

La solución que verifica y(0) = 0, y % (0) = 1/2 se designa por J1 (x). Pruébese
que
J1 (x) = −J0% (x).
10.8. PROBLEMAS 413

15. Considérese la ecuación de Bessel


$ %
d2 u 1 du ν2
+ + 1 − u=0
dz 2 z dz z2

y hágase el cambio de función incógnita w(z) = u(z)z −u eiz . Encuéntrese


la ecuación diferencial que resulta en w(z) y hállese su solución general. A
partir de aquı́, pruébese que
1 ' z (ν
Jν (z) = e−iz 1 F1 (ν + 12 ; 2ν + 1; 2iz).
Γ(ν + 1) 2

16. Pruébese que


3 4 3 x2
4
a) ex = lim 2 F1 a, b; a; xb . b) cos x = lim 2 F1 a, a; 12 ; − 4a 2 .
b→∞ a→∞

17. Hállense las dos soluciones linealmente independientes de la ecuación hiper-


geométrica en un entorno de uno (se sugiere hacer el cambio de variable
t = 1 − x para encontrar una nueva ecuación en el cual el cero es un punto
singular regular) y de infinito.
18. Sea

&
T 3 4 U
exp w z − z1 /2 = Jn (w)z n
n=−∞

un desarrollo de Laurent para cada w ∈ C fijo. Pruébese que


1
1 π
a) Jn (w) = cos(w sen φ − nφ)dφ.
π 0
b) Jn (w) es la función de Bessel de ı́ndice entero n.
d
c) (w−n Jn (w)) = −w−n Jn+1 (w), w != 0.
dw
d 1
d) Jn (w) = {Jn−1 (w) − Jn+1 (w)}.
dw 2
d n
e) Jn (w) = Jn (w) − Jn+1 (w).
dw w
19. Pruébese que la función de Bessel modificada de ı́ndice entero verifica

In (z) = I−n (z).

20. Encuéntrese, mediante el cambio de variable ex = t, la solución general en


un entorno de cero de la ecuación
1
(1 − ex )y %% + y % + ex y = 0.
2
414 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

21. a) Usando la regla de L’Hôpital, pruébese que


/ 0
1 ∂Jν (z) n ∂J−ν (z)
Nn (z) = lim − (−1) .
π ν→n ∂ν ∂ν
b) Pruébese que

2 1 & ψ(n + m + 1)
Nn (z) = Jn (z) log(z/2) − (−1)m (z/2)2m+n
π π m=0 m! Γ(n + m + 1)

1 & ψ(m − n + 1)
− (−1)m+n (z/2)2m−n .
π m=0 m! Γ(m − n + 1)

Recuérdese que la función ψ(z) se definió en el Capı́tulo 1:


∞ $ %
Γ% (z) 1 & 1 1
ψ(z) = = −γ − + − .
Γ(z) z n=1 n z + n

En este apartado se toma una rama concreta del logaritmo, la que más
apetezca.
22. Las funciones de Bessel modificadas de segunda especie, para ı́ndice ν no
entero se definen como
π
Kν (z) = [I−ν (z) − Iν (z)].
2 sen πν
Pruébese que en este caso la solución general de la ecuación de Bessel modi-
ficada puede ponerse en la forma AIν (z) + BKν (z), siendo A y B constantes
arbitrarias. Para n entero, las funciones Kn (z) se definen como Kn (z) =
lim Kν (z). Pruébese que
ν→n
! "
(−1)n ∂I−ν (z) ∂Iν (z)
Kn (z) = lim − .
2 ν→n ∂ν ∂ν
Utilizando esta última fórmula, hállese una expresión explı́cita para Kn (z),
similar a la obtenida en el problema anterior para Nn (z).
23. Sea f ("r) : R2 → R una función con simetrı́a cilı́ndrica, es decir, tal que
f ("r) = f (r). Demuéstrese que
1 ∞
F{f ("r)} = r f (r) J0 (kr) dr
0

donde J0 (z) es la función de Bessel de orden cero. Aplı́quese este resultado


para hallar la transformada de Fourier de la función f (r) = circ (r/d), d > 0,
donde /
1, r ≤ 1
circ (r) = .
0, r > 1
10.8. PROBLEMAS 415

24. Compruébese que las siguientes funciones de Bessel tienen las transformadas
de Laplace que se indican:

( s2 + a2 − s)n
a) L{Jn (at)}(s) = √ ;
an s2 + a2
√ 1 2
b) L{J0 (a t)}(s) = e−a /(4s) .
s
6
25. Hállese la transformada de Fourier de J0 (2 |x|).

26. Encuéntrese la transformada de Laplace de xν/2 Jν (2 x).
27. Demuéstrese que
x3 x5 209 x7
y(x) = x + − − − ···
2 40 5040
es una solución de la ecuación diferencial y %% +(cosh 2x−4)y = 0. Indicación:
antes de aplicar el método de Frobenius, desarróllese cosh 2x en serie de
potencias.
28. Pruébese que la ecuación x4 y %% − y = 0 no tiene solución en forma de serie
de Frobenius en torno al origen. No obstante, puede buscarse solución en
torno al punto del infinito. Pruébese que la solución es

y(x) = Ax cosh(1/x) + Bx senh (1/x).

29. Verifı́quese que la ecuación diferencial (x4 +2x2 )y %% +3xy % −6x2 y = 0 admite
como soluciones
3 2 1 4 1 6 1
y1 (x) = 1+ x + x − x + x8 − · · ·
5 15 195 1105
$ %
1 7 2 21 4 7 35
y2 (x) = √ 1+ x + x − x +
6 8
x − ··· .
x 8 128 1024 32768

30. Pruébese que si µ ∈


/ Z, la ecuación
$1 %
4 −µ
2
1
y +
%%
− y=0
x2 4
admite como soluciones en el origen dos series cuyos términos dominantes
son
$ % $ %
1 x2 1 x2
x 2 +µ 1 + + ··· , x 2 −µ 1 + + ··· .
16(1 + µ) 16(1 − µ)
Determı́nese la relación de recurrencia para los coeficientes del término ge-
neral de cada serie y demuéstrese que las series convergen para todo valor
de x.
416 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

31. Pruébese que la ecuación


1 − x2
y %% + y=0
4x2
posee las siguientes dos soluciones en torno al origen
$ %
x2 x4 x5/2
y1 (x) = x 1/2
1+ + + ··· , y2 (x) = y1 (x) ln x − + ···
16 1024 16

32. La ecuación diferencial


$ %
2 % n(n + 1)
y + y + 1−
%%
y = 0, n∈N
x x2
aparece con cierta frecuencia en problemas de mecánica cuántica. Hállense
dos soluciones reales linealmente independientes de esta ecuación, denomi-
nadas “funciones esféricas de Bessel”. Exprésense estas funciones (i) en
términos de funciones de Bessel de ı́ndice semientero, e (ii) como derivadas
de las funciones senx x y cosx x .
33. Hállese la solución de la ecuación diferencial
x 1
x2 (x2 − 1) y %% + x(2x2 + − 1) y % + y = 0
3 4
a) en términos de funciones hipergeométricas de argumento 2x/(x − 1);
b) en términos de funciones hipergeométricas de argumento (x − 1)/(2x);
c) en términos de funciones hipergeométricas de argumento (x + 1)/(2x).
34. Una partı́cula cargada que se mueve en un cı́rculo con velocidad relativista
constante emite una radiación de diversas frecuencias que resultan ser armó-
nicos de la frecuencia de giro. La intensidad radiada en el n–ésimo armónico
se expresa en función de las integrales
1 2π 1 2π
I1 = du cos u e−inu+iα cos u , I2 = du sen u e−inu+iα cos u ,
0 0

siendo α un parámetro real relacionado con la velocidad de la partı́cula y


con el ángulo según el cual se observa la radiación. Evalúense estas dos
integrales en términos de una función bien conocida y de sus derivadas.
35. Dada la ecuación $ %
2
y + 2y + 1 − 2
%% %
y = 0,
x
determı́nese una solución que llamaremos y∞ (x) que sea válida de forma
aproximada asintóticamente, es decir, para valores muy grandes de x. Luego
hágase el cambio y(x) = y∞ (x)v(x) para hallar v(x) y resolver la ecuación
que nos interesa.
10.8. PROBLEMAS 417

36. Resuélvase la ecuación

x4 y %% + 2x3 y % − y = 0.

37. Supongamos que la ecuación diferencial

y %% + P (x)y % + Q(x)y = 0

tiene puntos singulares regulares en x = +1 (siendo α y α% las soluciones


de la ecuación indicial correspondiente) y en x = −1 (siendo en este caso
β y β % las soluciones de la ecuación indicial); supóngase además que en el
infinito se tiene un punto ordinario. Demuéstrese que β = −α y β % = −α% y
que la ecuación diferencial es

(x2 − 1)2 y %% + 2(x − 1)(x − α − α% )y % + 4αα% y = 0,

cuya solución general es


$ %α $ %α$
x−1 x−1
y = C1 + C2 .
x+1 x+1

38. Demuéstrese que la ecuación

(1 − x2 )y %% − (a + b + 1)y % − aby = 0

posee una solución de la forma

2 F1 (a, b; (a + b + 1)/2; (1 − x)/2)

válida en el segmento x ∈ (−1, 3). Determı́nese la solución cuando a + b no


es un entero impar.
39. Determı́nese la solución general de

d2 y dy
+ (a + b) cot θ − aby = 0
dθ2 dθ
cuando a + b no es un entero impar.
40. Demuéstrese que la ecuación

∂2V 1 ∂V
2
=
∂x k ∂t
posee soluciones de la forma

V = C tm 1 F1 (−m; 1/2; −x2 /(4kt)),

donde C y m son constantes.


418 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

41. Demuéstrese que la ecuación de Schrödinger


$ %
β
∇2 ψ + k 2 − ψ=0
r

posee soluciones de la forma

eikx 1 F1 (−iβ/(2k); 1; ikr − ikz).

42. La ecuación de Schrödinger para la rotación de una molécula con una de-
terminada simetrı́a es
$ % $ %
1 ∂ ∂ψ 1 ∂2ψ A ∂2ψ
sen θ + + cot θ +
2
sen θ ∂θ ∂θ sen 2 θ ∂θ2 C ∂χ2
2 cos θ ∂ 2 ψ 2AW
− + ψ = 0,
sen 2 θ ∂χ∂φ !2

donde A, C, W, ! son constantes. Demuéstrese que existen soluciones a esta


ecuación en la forma
n−m n−m
ψ = eimφ−inχ (1 − x) 2 x 2
2 F1 (α, β; γ; x),

siendo n ≥ m, x = (1 − cos θ)/2, γ = n − m + 1, y α, β las dos raı́ces de la


ecuación algebraica

A 2 2AW
z 2 − (2n + 1)z + n +n− = 0.
C !2

43. Considérese un resorte de masa m, constante de amortiguamiento γ y en el


que la constante elástica que aparece en la ley de Hooke16 no es tal constante,
si no que varı́a con el tiempo de modo que k(t) = k0 e−at , a > 0. Este serı́a
un modelo en el cual el resorte sufre un cierto “envejecimiento” y pierde
elasticidad (en este caso de forma exponencial). Plantéese la ecuación del
movimiento y compruébese que puede reducirse a una ecuación de Bessel.
Resuélvase e interprétense los resultados.
44. Calcúlese la solución de la ecuación
d2 y dy
32 +3 + 32 32 y = 0.
d32 d3
16
Robert Hooke (1635–1702), hombre de ciencia inglés. Realizó contribuciones en
matemáticas y fı́sica (fue el primero en proponer la ley del inverso del cuadrado de la
distancia para los movimientos planetarios, aunque no pudo demostrala), pero también
en biologı́a (fabricó su propio microscopio) y en arquitectura (cooperó con Sir Christopher
Wren (1632–1723) en el proyecto de reconstruir Londres tras el gran incendio de 1666).
10.8. PROBLEMAS 419

45. Usando la transformación de Laplace, evalúese la solución de

d3 y(t) d y(t)
+ = 0, y(0) = 1, y % (0) = y %% (0) = 0; y(t < 0) = 0.
dt3 dt

46. En fı́sica atómica, al calcular la densidad de estados para un modelo de


caja esférica, nos vemos obligados a encontrar la solución de la ecuación
diferencial en derivadas parciales

1 ∂2G 1 ∂G 3
− 2G= + G.
8 ∂r2 4r ∂β 2β
Para ello, seguiremos los siguientes pasos:
1.– Aplı́quese el método de separación de variables (llamando γ a la cons-
tante que aparece), buscando soluciones de la forma

G(r, β) = R(r) B(β).

2.– De aquı́, hállese la solución general para B(β) de la manera que parezca
más sencilla (nótese que esta solución dependerá del parámetro γ).
3.– Después búsquese la solución general para la función R(r), solución en
la cual también aparecerá el parámetro γ.
4.– Dado que la función buscada G(r, β) ha de tomar un valor finito en
r = 0, ¿cómo ha de ser la parte fı́sicamente relevante de la función radial
R(r) en la forma factorizada?
47. Calcúlese la solución general de la ecuación

y %%% (x) − α xy %% (x) + α y % (x) = 0,

siendo α un número real positivo arbitrario.


NOTA: antes de comenzar los cálculos se recomienda reflexionar con cuidado
sobre el tipo de ecuación, su orden, el número de soluciones linealmente
independientes que tendrá, etc.
48. Dada la ecuación diferencial
d2 y dy
(t2 + At + B) + (Ct + D) + F y = 0,
dt2 dt
con A, B, C, D, F constantes y siendo t1 y t2 las dos raı́ces diferentes de
t2 + At + B = 0, hágase la substitución
t − t1
x= , y(t) ≡ w(x),
t2 − t1
y determı́nese le ecuación diferencial que satisface w(x).
420 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

49. Se ha de hallar la solución más general de la ecuación diferencial

d2 y(x)
= (a2 + b2 e−2x − 2b2 e−x ) y(x), a, b > 0; x ∈ R.
dx2
Para ello se propone seguir las siguientes indicaciones:
1.– Efectúese en la ecuación el cambio de variable independiente z = e−x ,
hallando la nueva ecuación diferencial que satisface la función y(x) ≡ ϕ(z).
Indı́quese claramente cuál es el rango de variación de la nueva variable z.
2.– La ecuación ası́ obtenida es más fácil de resolver. En primer lugar
discútanse las singularidades que presenta y de qué tipo son. Teniendo
ésto en cuenta, explı́quese someramente qué método de resolución se podrı́a
utilizar para hallar su solución alrededor de z = 0.
3.– Ahora, para resolver la ecuación diferencial en la variable z, se sugiere
buscar la solución ϕ(z) en la forma factorizada

ϕ(z) = ϕ0 (z) g(z) ϕ∞ (z),

donde: ϕ0 (z) es la solución de la ecuación diferencial que aparece al despre-


ciar en la ecuación obtenida en el apartado 1 los términos que son pequeños
cuando z ≈ 0; ϕ∞ (z) surge de forma análoga a la anterior, pero elimi-
nando los términos despreciables cuando se supone que z ≈ ∞ (prescı́ndase
también del término que contiene la derivada de primer orden); g(z) nos
dará el comportamiento de la solución para valores de z que no sean ni muy
próximos a cero ni muy grandes.
En concreto:
a) Determı́nese la ecuación que ha de verificar ϕ0 (z) y resuélvase. En la
solución obtenida, elimı́nese el término divergente en z = 0.
b) Determı́nese la ecuación que ha de verificar ϕ∞ (z) (suprimiendo también
el término que contiene la derivada de primer orden) y resuélvase. En la
solución obtenida, elimı́nese el término divergente en z → ∞.
c) Con las expresiones halladas en a) y b), determı́nese la ecuación diferencial
que satisface la función g(z). Se trata de una ecuación bastante sencilla, y
muy parecida a una de las analizadas en este capı́tulo. Calcúlese el valor
de b para el cual la ecuación hallada es precisamente del tipo estudiado y
escrı́base su solución general.
d) Escrı́base la forma final de la solución que se obtiene tras seguir hasta el
final el proceso descrito.
50. Resuélvase la ecuación diferencial

x2 y %% + x2 y % − 2y = 0.
10.8. PROBLEMAS 421

51. En 1913 se descubrió que en presencia de campos eléctricos suficientemente


fuertes cada lı́nea espectral de la serie de Balmer17 del hidrógeno se desdobla
en un cierto número de componentes. Este fenómeno es tı́pico de todos los
átomos y se conoce hoy dı́a con el nombre de efecto Stark en honor a su
descubridor18 . El efecto Zeeman19 es semejante al Stark, pero es debido a
la acción de campos magnéticos.
Al analizar matemáticamente el efecto Stark se llega a la siguiente ecuación
diferencial:
$ % $ %
d du 1 m2 1
x + Ex+α− − F x2 u = 0.
dx dx 2 4x 4
Aquı́ α, E, F son ciertas constantes y m ∈ {1, 2, 3, . . .}. Hállense los tres
primeros términos de la solución que es regular en x = 0 (es decir, que en
ese punto no se va al infinito).
52. Se desea determinar el resultado de la integral:
1 x
y(x) = cos(x − t) J0 (t) dt.
0

Para ello se recomienda seguir los siguientes pasos:


(i) Derivar varias veces la función y(x) para ver que satisface una ecuación
diferencial bastante sencilla. Se recomienda tener mucho cuidado en
esta parte.
(ii) Tras un momento de reflexión, hállese la solución general de esta ecuación.
(iii) Las constantes arbitrarias que aparecen pueden determinarse analizando
el valor de la integral y de su derivada para un valor adecuado de x.
17
Johann Jakob Balmer (1825–89), geómetra y maestro de escuela suizo, que es recor-
dado por sus trabajos sobre las lı́neas espectrales y su fórmula para la longitud de onda
de las lı́neas en el espectro de luz emitido por el átomo de hidrógeno (1885), que no pudo
ser explicada hasta los trabajos de Bohr.
18
Johannes Stark (1874–1957), fı́sico alemán que obtuvo el premio Nobel en 1919 por
el descubrimiento del efecto que hoy lleva su nombre. Históricamente, la explicación del
efecto Stark (1916) supuso uno de los grandes triunfos de la mecánica cuántica en sus
primeros años. Stark fue un teórico de la polı́tica racista de la Alemania nazi y tras la
Segunda Guerra Mundial (1939-45) fue condenado a cuatro años en un campo de trabajo.
19
Pieter Zeeman (1865–1943), fı́sico holandés premio Nobel en 1902 observó el
fenómeno que lleva su nombre en 1896 al estudiar la lı́nea amarilla D del espectro del
sodio, confirmando la teorı́a elaborada por su maestro y compatriota Hendrik Antoon
Lorentz (1853-1928), que compartió con él el premio de 1902 (y que entre otras muchas
contribuciones a la fı́sica descubrió las transformaciones de Lorentz de la relatividad
especial). El efecto Zeeman ayudó a los fı́sicos a determinar los niveles de energı́a en
los átomos y a identificarlos en términos del momento angular. También proporciona
un modo efectivo de estudiar el núcleo atómico y fenómenos tales como la resonancia
paramagnética. En astronomı́a se usa para determinar el campo magnético del sol y las
estrellas.
422 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

53. Al intentar resolver la ecuación de Schrödinger tridimensional cuando se


supone que el potencial tiene simetrı́a esférica, aparece la siguiente ecuación
diferencial
$ % / 0
d 2 dR(r) 2mr2
r + (E − V (r)) − λ R(r) = 0,
dr dr !2
donde r es la coordenada radial, m la masa de la partı́cula que está sometida
al potencial V (r), ! la constante de Planck corregida, E los posibles valores
de la energı́a y λ una constante que toma los valores siguientes:
λ = '(' + 1), ' = 0, 1, 2, 3, . . . (10.8.1)

a) Interesa el caso de una partı́cula libre, es decir, el potencial es V (r) = 0.


Considérese la ecuación que resulta, y en ella, con el fin de obtener una
ecuación adimensional, háganse los cambios de variable
5
2mE
r = x, R(r) = y(x).
!2
Se pretende resolver la ecuación diferencial que aparece. Es realmente muy
parecida a una de las estudiadas en este capı́tulo, aunque no tiene exacta-
mente la misma forma. ¿De qué ecuación se trata?
b) Para intentar llegar a esa famosa ecuación cuya solución se conoce bien, se
va a efectuar una transformación en la variable dependiente: se introducen
dos funciones u(x) y v(x) tales que
y(x) = u(x) v(x).
Al hacer este cambio, y agrupando convenientemente, se obtiene una ecua-
ción de la forma
u%% + p(x) u% + q(x) u = 0, (10.8.2)
siendo p(x) y q(x) ciertas funciones de x, v, v % , v %% . Las funciones u(x) y
v(x) tienen demasiada libertad; podemos imponer la siguiente restricción: la
ecuación (10.8.2) ha de coincidir con la ecuación diferencial bien conocida, a
la que se hizo referencia en el apartado a). Con esto, la forma de la función
v(x) se determina unı́vocamente (salvo una constante multiplicativa que
puede ser tomada igual a 1); la forma de u(x) se obtiene directamente, sin
hacer cálculos.
c) Tras las consideraciones anteriores, dése la solución general R(r) del pro-
blema planteado. Como desde el punto de vista fı́sico esta función ha de ser
finita para valores finitos de r, a partir de la solución general, ¿cuál es la
solución con sentido fı́sico?
NOTA: trabájese con λ como un parámetro del problema. Sólo al final
del apartado b) convendrá tener en cuenta la ecuación (10.8.1), y será más
simple dar la solución general en términos de ' en lugar de λ.
10.8. PROBLEMAS 423

54. Encuéntrese la solución de la ecuación diferencial


3−x % 1
y %% + y − y=0
x 2x
que verifica y(0) = 1. No es preciso hacer muchos cálculos.
55. Evalúense a y c para que
1
2 x
2 2x
erf(x) := √ e−t dt = √ 1 F1 (a, c; −x2 ).
π 0 π

56. Considérese la ecuación diferencial

y %%% (x) − α xy % (x) − β y(x) = 0,

siendo α y β números reales positivos arbitrarios.


a) ¿Cuántas soluciones linealmente independientes tendrá esta ecuación y
por qué?
b) Hállese la solución general dando la forma explı́cita de las soluciones
linealmente independientes.
57. Los alumnos del profesor “Otero”20 decı́an que éste estaba siempre en la
luna, y no les faltaba razón, pues se dedicaba a estudiar sus movimientos.
Encontró que algunos de ellos están descritos por la sencilla ecuación:

d2 y
+ (cos x) y = 0.
d x2
Se pretende efectuar un estudio elemental de sus soluciones, sin pretender
hallar la más general, que es complicada. Se propone el siguiente esquema
de trabajo:
a) Coméntese cuántas soluciones linealmente independientes tiene esta ecua-
ción, y por qué.
b) Demuéstrese que si y = ϕ(x) es una solución de la ecuación, entonces
y = ϕ(x + 2π) también es solución. ¿Qué quiere decir este resultado?,
¿quizá que todas las soluciones son funciones periódicas?
c) Búsquese la solución general en forma de serie de potencias en torno a
x = 0. ¿Qué tipo de serie se elegirá, de Taylor o de Frobenius, y por qué?
d) Obténganse los coeficientes del desarrollo en serie de la solución general,
pero sólo hasta el orden 7.
e) De la solución general ası́ obtenida, obténgase la solución que cumple las
condiciones y(0) = 1, y % (0) = 0.
20
George William Hill (1838–1914), matemático estadounidense que estudio en profun-
didad los efectos gravitatorios de los diversos planetas sobre la trayectoria de la luna.
424 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

58. Encuéntrese la solución general de la ecuación:


2
xy %% − y = 1 + x3 .
x
Obténganse las soluciones que verifican las condiciones iniciales a) y(x =
0) = 0, y % (x = 0) = 1 y b) y(x = 0) = 0, y(x = 1) = 0.
59. Demuéstrese que, en un entorno del origen, es válida la siguiente igualdad

arctan x = x 2 F1 (α, β, γ; ω),

donde los parámetros α, β, γ y la variable ω han de determinarse. ¿A qué


entorno del origen hacemos referencia? Utilı́cese el siguiente desarrollo:

x3 x5 x7
arctan x = x − + − + ···
3 5 7

60. Considérese la ecuación de primer orden

dy
= x2 + y 2 .
dx

d ln u
i) Efectúese el cambio de variable dependiente y = − para obtener
dx
una ecuación de segundo orden muy sencilla.
ii) En la ecuación ası́ obtenida (que podrı́a resolverse por la técnica de de-
u x2
sarrollos en serie), háganse los cambios w = √ , z = , para obtener una
x 2
nueva ecuación de segundo orden de un tipo que debiera ser sobradamente
conocido. Obténgase la solución general de esta ecuación.
iii) Efectúense las transformaciones necesarias para pasar de la solución ge-
neral w = w(z) a la que nos interesa y = y(x). ¿Cuántas constantes aparecen
en esta solución? ¿Cuántas ha de haber en realidad? Analı́cese con cuidado
la solución para ver que la contradicción es sólo aparente.
61. Encuéntrese la solución general de la ecuación diferencial

d2 y 1 dy x2 − 3
+ + y = 0.
dx2 2x dx 2x2

62. Encuéntrese la solución general de la siguiente ecuación diferencial, indi-


cando además cuáles son las propiedades de analiticidad de las dos soluciones
linealmente independientes:

2x2 y %% (x) − xy % (x) − (x − 1)y(x) = 0.


10.8. PROBLEMAS 425

63. Utilizando el método de Frobenius, resuélvase en un entorno del origen la


ecuación diferencial
y %% + 2x2 y = 0.

64. La siguiente ecuación diferencial aparece al resolver un problema importante


en mecánica cuántica:

ty %% + (1 − t)y % + ky = 0,

siendo k ∈ {0, 1, 2, . . .}. Usando explı́citamente el método de Frobenius,


búsquese la solución de la ecuación que verifica y(0) = 1.
NOTA: manéjese k como un parámetro al resolver la ecuación, pero no se
pierda de vista que toma valores naturales.
65. Partiendo de la propia ecuación diferencial, calcúlese la transformada de
Laplace de la solución obtenida en el ejercicio anterior, prescindiendo de lo
que pueda valer para t < 0.
66. Considérese la ecuación diferencial:
$ %
d2 y dy 1
2x + 2(2x − 1) + 2x − 1 + y = 0.
dx2 dx x

Realı́cense los siguientes cálculos:


a) Hágase el cambio de función incógnita:

y(x) = xe−x z(x),

y obténgase la ecuación diferencial que satisface z(x).


b) Efectúese el cambio de variable: x = t2 /2, y obténgase la ecuación para
w(t) ≡ z(x).
c) Por último, resuélvase la ecuación anterior en un entorno de t = 0, para
posteriormente deshacer los dos cambios anteriores y obtener la solución en
la forma y = y(x).
67. Evalúese, en términos de una función bien conocida, la transformada de
Fourier de la función
 5
 2 1
f (x) =
√ , |x| < 1,
 π 1 − x2
0, |x| > 1,

que puede tomarse como modelo de potencial nuclear. Dato:


1 π/2
2 (cos θ)2n dθ = B(1/2, n + 1/2).
0
426 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

68. Considérese la ecuación no lineal de primer orden

y % = xy 2 + x2 .

a) Encuéntrese su solución general probando con una serie de potencias de


la forma
&∞
y(x) = an xn = a0 + a1 x + a2 x2 + · · · .
n=0

Como la solución en forma cerrada es complicada, bastará determinar co-


rrectamente los siete primeros coeficientes.

b) Esta ecuación no lineal de primer orden es de un tipo bien conocido y


puede transformarse en una ecuación de segundo orden de tipo Schrödinger
mediante los cambios
z % (x)
v(x) = xy(x) y v(x) = − .
z(x)
Determı́nese la ecuación que satisface z(x).

c) La ecuación hallada en el apartado anterior es sencilla, pero sin embargo


no se corresponde con ninguna de las ecuaciones de funciones especiales
que se han estudiado. Mediante sucesivas transformaciones, vamos a poder
simplificar la ecuación y hallar finalmente su solución.

c1) Primero realı́cese el cambio de función incógnita

z(x) = xa g(x),

hallando la ecuación que satisface g(x). El parámetro a se determinará


posteriormente.

c2) A continuación, en la ecuación obtenida en el apartado c1) hágase el


cambio de variable
x = tµ .

La ecuación resultante se parece mucho a una de las que hemos estudiado en


este capı́tulo. Determı́nense los valores de µ y a con los cuales la ecuación
adopta esa forma familiar.

c3) Se habrá observado que, no obstante, hay un coeficiente que no encaja


bien, pues en lugar de ser 1 resulta 25 4
. Sin embargo, un último cambio de
variable independiente t = bw nos va a permitir fijar el valor de b de modo
que la ecuación diferencial resultante sea exactamente la de unas funciones
bien conocidas. Evalúese b y a continuación deshaganse los cambios reali-
zados para dar la solución y(x) en función de las soluciones z(x) de y sus
derivadas.
10.9. BIBLIOGRAFÍA 427

69. Evalúese / $ %0
−1 1 2
L J0 √ .
s s
70. Demuéstrese que la expresión siguiente puede escribirse en términos de una
función especial bien conocida:
1 d
[x J1 (x)].
x dx

71. Demuéstrese que se verifica la igualdad: (x J0 (x))%% + (x J0 (x)) = (J0 (x))% .


72. Hállense las dos soluciones periódicas linealmente independientes de

d2 y(x)
= (cos x) y(x),
dx2
buscándolas en forma de serie de potencias del término cos x. Como la ley
de recurrencia no es sencilla, bastará con dar los primeros términos de la
serie, hasta la potencia (cos x)7 .
Tras lo anterior debe resultar bastante evidente que mediante una sencilla
transformación la ecuación anterior puede convertirse en una de coeficientes
constantes. Efectúese este cambio de variable y hállese la solución de la
ecuación resultante, comparándola con la hallada anteriormente.
73. ¿Existen soluciones de la ecuación y %% = x y de la forma

&
y(x) = an xn ?
n=0

En caso afirmativo, hallarlas y determinar el radio de convergencia de las


series.

10.9 Bibliografı́a
1. Abramowitz, M., and Stegun, I.A., Handbook of Mathematical functions,
Dover, 1972.
2. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
3. Ayant, Y. y Borg, M., Fonctions Speciales à l’usage des étudiants en physi-
que, Dunod, 1971.
4. Butkov, E., Mathematical Physics, Addison Wesley, 1968.
5. Dennery, P., Krzywicki, A., Mathematics for Physicists, Harper & Row,
1969.
428 CAPÍTULO 10. SOLUCIONES EN SERIE DE POTENCIAS

6. Erdélyi, A., Magnus, W., Oberhettinger, F., and Tricomi, F.G., Higher
Transcendental Functions, Vols. I-III, MacGraw-Hill, 1953.
7. Hochstadt, H., Special Functions of Mathematical Physics, Holt, Rinehart
and Winston, 1966.
8. Lebedev, N.N., Special Functions and their Applications, Dover 1972.
9. Simmons, F., Ecuaciones diferenciales con aplicaciones y notas históricas,
McGraw-Hill, 1977.
10. Sneddon, I.N., Special functions of mathematical physics and chemistry,
Longman, 1980.
11. Spiegel, M.R., Matemáticas superiores para ingenieros y cientı́ficos, Mc-
Graw-Hill, 1971.
12. Watson, G. N., A Treatise on the Theory of Bessel Functions, Cambridge
University Press, 1966.
13. Wyld, H.W., A Mathematical Methods for Physics, Benjamin/Cummings
Publishing Co., 1976.
Capı́tulo 11

POLINOMIOS
ORTOGONALES
CLÁSICOS

11.1 Introducción

En este capı́tulo estudiaremos un tipo especial de polinomios, los llama-


dos polinomios ortogonales clásicos. Las funciones que se engloban dentro
de esta denominación resultan ser de especial importancia en las aplica-
ciones en multitud de campos. Ası́ por ejemplo los polinomios de Her-
mite1 , los de Laguerre2 y los de Legendre3 aparecen al resolver la ecuación
de Schrödinger para ciertos potenciales de interés (el oscilador armónico, el
átomo de hidrógeno y el problema del momento angular, respectivamente).
También aparecen en problemas de tipo potencial, sea electrostático o gra-
vitatorio, y en general surgen de manera natural al separar variables en

1
Charles Hermite (1822–1901), uno de los matemáticos franceses más influyentes de
finales del siglo XIX. Realizó importantes contribuciones en teorı́a de matrices, teorı́a de
números y funciones elı́pticas. En 1873 probó que el número e es transcendente, es decir,
no es la raı́z de ninguna ecuación algebraica (polinómica) con coeficientes racionales (los
números trascendentes se llaman ası́ porque, en palabras de Euler, “trascienden el poder
de los métodos algebraicos”.
2
Edmond Laguerre (1834–86), matemático francés.
3
En 1872, estudiando las fuerzas con que se atraen ciertos sólidos de revolución, Le-
gendre introdujo los polinomios que hoy llevan su nombre.

429
430 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

una ecuación diferencial en derivadas parciales, en particular la ecuación


de Laplace en coordenadas no tan usuales como las cartesianas, por ejemplo
en parabólicas, esferoidales, toroidales o bipolares (también al considerar la
ecuación de Helmholtz4 en esféricas). Estos polinomios ortogonales clásicos
pueden introducirse de varias maneras diferentes:

i) Al ortonormalizar, de manera puramente algebraica usando el mé-


todo de Gram5 -Schmidt6 , que será conocido de los cursos de álgebra
lineal (y que de hecho es un resultado debido a Laplace y que fue
también usado por Cauchy), las funciones

1, x, x2 , x3 , . . . ,

según cierta medida (también llamada función de peso) y en un de-


terminado intervalo de la recta real R. El concepto de funciones
ortogonales y ortonormales ya fue introducido en las definiciones 10
a 12 del Capı́tulo 3, dedicado a las series de Fourier.

ii) Al resolver ciertas ecuaciones diferenciales ordinarias lineales, de


segundo orden y con coeficientes variables, usando la técnica de los
desarrollos en serie explicada en el capı́tulo precedente. No será esta
la opción elegida por nosotros, pero como ejercicio conviene resolver
las ecuaciones diferenciales que nos van a ir apareciendo para cada
familia de polinomios usando desarrollos en serie.

iii) Recurriendo al concepto de función generatriz7 : una función de dos


variables, que al ser desarrollada en serie de potencias en una de las
variables proporciona los polinomios ortogonales como los coeficientes
de la mencionada serie. Este enfoque del problema enlaza con la teorı́a
de variable compleja8 .

iv) Aparecen como vectores pertenecientes a ciertos sistemas ortonor-


males completos de espacios funcionales (espacios de Hilbert de
funciones de cuadrado integrable en determinado intervalo de R).
4
Hermann Ludwig Ferdinand von Helmholtz (1821–94), matemático y fı́sico alemán,
interesado en la teorı́a matemática de la música, la percepción del sonido y las leyes de
la termodinámica.
5
Jorgen Pedersen Gram (1850–1916), matemático danés.
6
Erhard Schmidt (1876–1959), matemático alemán.
7
Esta noción ya apareció al estudiar las funciones de Bessel.
8
Más detalles pueden verse en el libro de Markushevich.
11.2. LA FÓRMULA DE RODRIGUES GENERALIZADA 431

v) Al estudiar la teorı́a de representaciones de ciertos grupos de Lie.


Este enfoque queda también fuera del alcance de este libro.

vi) Como el resultado de realizar ciertas integrales (lo que se conoce


también como forma integral de los polinomios).

vii) Introduciendo la fórmula de Rodrigues9 generalizada.

Nosotros vamos a seguir la presentación indicada en último lugar que


es debida a Tricomi10 , por considerarla la más concisa y elegante (aunque
quizá es menos general que alguna de las otras mencionadas), ya que per-
mite mostrar una visión unificada y obtener los diferentes polinomios como
casos particulares11 . Serı́a completamente inadecuado pretender ofrecer
una descripción exhaustiva del tema que nos ocupa, pues existen libros
muy completos en los que pueden consultarse las numerosas e interesantes
propiedades y relaciones que satisfacen los polinomios ortogonales12 , sin
tener que abrumar al lector con excesivas fórmulas (sólo se estudiarán las
más relevantes). Nos parece importante no detenernos únicamente en los
resultados puramente algebraicos o analı́ticos, creemos que puede ser muy
útil para el lector tener una imagen visual del comportamiento cualitativo
de algunas de las funciones estudiadas, por lo que se ilustrará el texto con
diversas figuras suficientemente ilustrativas.

11.2 La fórmula de Rodrigues generalizada

Comenzaremos introduciendo las siguientes funciones reales de variable real


1 dn
pn (x) = (ω(x)s(x)n ), n = 0, 1, 2 . . . (11.2.1)
Cn ω(x) dxn

donde Cn son ciertas constantes que se fijarán más adelante, y las funciones
ω(x) y s(x) deben ser reales y tales que:
9
Olinde Rodrigues (1794–1851), matemático y banquero francés.
10
Francesco Giacomo Tricomi (1897–1978), destacado matemático italiano que rea-
lizó importantes contribuciones en campos diversos, siendo destacable el estudio de la
ecuación en derivadas parciales que lleva su nombre, y uxx + uyy = 0, y que aparece al
describir un objeto que se mueve a velocidad supersónica. Escribió varios libros realmente
excelentes sobre funciones especiales.
11
Seguiremos esencialmente el libro de Dennery et al .
12
Por ejemplo el bien conocido de Erdélyi et al .
432 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

1. La función p0 (x) es una constante por su propia definición en (11.2.1),


y p1 (x) ha de ser un polinomio de grado uno en la variable indepen-
diente x.

2. La función s(x) es un polinomio de grado menor o igual a dos, con


raı́ces reales (esto es necesario para que las funciones pn (x) sean
reales).

3. La función ω(x) es una función real, positiva e integrable en un cierto


intervalo [a, b] del eje real, que puede ser finito o infinito.

4. En los extremos de este intervalo [a, b] el producto ω(x)s(x) se anula:

ω(a) s(a) = ω(b) s(b) = 0. (11.2.2)

Las condiciones anteriores pueden parecer bastante arbitrarias, pero en re-


alidad son muy restrictivas, y de hecho vamos a ver a continuación que
imponen que pn (x) sea un polinomio de grado n y también que el con-
junto {pn (x)}∞
n=0 forme una familia de funciones ortogonales dos a dos, con
función de peso ω(x) en [a, b]. La expresión (11.2.1) se denomina fórmula
de Rodrigues generalizada para los polinomios pn (x).
Lo que haremos a continuación es estudiar algunas propiedades de estas
funciones pn (x).
Lema 1: designemos por qk (x) un polinomio arbitrario de grado menor o
igual a k. Entonces
dm
(ω sn qk ) = ω sn−m qk+m , (11.2.3)
dxm
donde qk+m es un polinomio de grado menor o igual a k + m.
Demostración: utilizando (11.2.1) se tiene que
/ 0 / 0
1 dω ds dω ds
p1 (x) = s+ω ⇐⇒ s = ω p1 (x) − . (11.2.4)
ω dx dx dx dx
De esta manera
d dω n ds dqk
{ω sn qk } = s qk + nω sn−1 qk + ω sn
dx dx dx dx
/! " 0
ds dqk
=ωs n−1
p1 (x) + (n − 1) qk + s . (11.2.5)
dx dx
11.2. LA FÓRMULA DE RODRIGUES GENERALIZADA 433

El polinomio p1 (x) es de grado uno y s(x) es un polinomio de grado a lo


más dos, por consiguiente, el factor entre llaves es un polinomio de grado
a lo más k + 1, llamémosle qk+1 . Por consiguiente, la ecuación (11.2.5) se
puede escribir como
d
{ω sn qk } = ω sn−1 qk+1 . (11.2.6)
dx
Es entonces obvio que repitiendo este prcedimiento m veces obtendremos
el resultado apetecido.
Observación: en particular, si tomamos m = n en (11.2.3) y escogemos
k = 0, tenemos que
dn
(ω sn ) = ω qn ,
dxn
y yendo a (11.2.1) resulta pn (x) = qn (x), de manera que pn (x) es un poli-
nomio de grado a lo sumo n.
Lema 2: todas las derivadas de orden m < n con respecto a x de ω sn son
cero, tanto en el punto x = a, como en el punto x = b.
Demostración: usamos el lema anterior tomando k = 0 y q0 ≡ 1. De esta
forma (11.2.3) nos da

dm
(ω sn ) = ω sn−m qm . (11.2.7)
dxm
Teniendo en cuenta (11.2.2), queda probado el resultado.
Teorema 1: pn (x) es un polinomio de grado n que es además ortogonal,
con peso ω(x) a cualquier polinomio qm (x) de grado igual a m < n, es decir
1 b
pn (x) qm (x) ω(x) dx = 0, m < n. (11.2.8)
a

Demostración: probemos, en primer lugar, la ortogonalidad. La fórmula


(11.2.1) nos dice que
1 1 b / n−1 0
b
1 d d
pn (x) qm (x) ω(x) dx = qm (x) (ω s ) dx
n
(11.2.9)
a Cn a dx dxn−1
/ n−1 0 2b 1 b / n−1 0
1 d 2
2 1 d dqm
= qm (x) n−1
(ω s ) 2 −
n
n−1
(ω s )
n
dx.
Cn dx a Cn a dx dx
434 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

El primer término de esta última ecuación es cero debido al Lema 2 que


acabamos de demostrar. Repitendo el proceso de integración por partes,
resulta que
1 1
b
(−1)n b
dn qm
pn (x) qm (x) ω(x) dx = ω sn dx. (11.2.10)
a Cn a dxn

Como el grado del polinomio qm es estrictamente menor que n, se tiene que


dn qm /dxn = 0, y, por consiguiente, la integral en (11.2.10) se anula, con lo
que la ortogonalidad queda probada.
Veamos ahora que pn (x) es, en efecto, un polinomio de grado n. De la
observación que efectuamos tras el Lema 1 ya sabemos que ha de ser un
polinomio de grado a lo más n, ası́ que podemos escribir:

pn (x) = qn−1 (x) + an xn , (11.2.11)

donde an es un coeficiente indeterminado por ahora y qn−1 (x) un polinomio


de grado a lo sumo n − 1 en x. Probemos que an no puede ser cero. Para
ello multipliquemos (11.2.11) por pn (x) ω(x) e integremos entre a y b:
1 b 1 b 1 b
p2n (x) ω(x) dx = qn−1 (x) pn (x) ω(x) dx + an xn ω(x) pn (x) dx.
a a a
(11.2.12)
La primera integral del miembro de la derecha es cero, como acabamos
de demostrar. De la fórmula de Rodrigues (11.2.1) y de las exigencias
1 a 4 posteriores, deducimos que pn (x) es un polinomio real. Ası́ pues
p2n (x) ω(x) es una función positiva y, por lo tanto, el miembro de la izquierda
de (11.2.12) no puede ser cero. Como consecuencia an != 0 y pn (x) tiene
grado n.
Observación: el teorema 1 nos está diciendo que los polinomios de la
sucesión
p0 (x), p1 (x), . . . , pn (x), . . .
son ortogonales dos a dos en el intervalo [a, b] con función de peso ω(x).
Ejercicio 1: pruébese que si reemplazamos la variable independiente x
por una nueva y = 3x + ξ, con 3 y ξ reales, todas las propiedades de los
polinomios pn (x) hasta aquı́ citadas se conservan, excepto que a y b habrán
de ser modificados adecuadamente. En particular los nuevos polinomios
p̃n (y) verifican una fórmula equivalente a (11.2.1) con las propiedades 1, 2,
11.3. CLASIFICACIÓN DE LOS POLINOMIOS ORTOGONALES 435

3 y 4, tienen grado n y conservan las propiedades de ortogonalidad. En


concreto,
3n p̃n (y) = pn (x) = pn ((y − ξ)/3).

Este resultado indica que siempre se puede efectuar una transformación


lineal en la variable independiente para llevar la familia de polinomios or-
togonales a una forma lo más sencilla posible, sin perder por ello las im-
portantes propiedades de ortogonalidad.

11.3 Clasificación de los polinomios ortogonales

Hasta ahora se ha introducido una familia de polinomios ortogonales, que


dependen del intervalo [a, b] y de la función peso ω(x), y normalizados
con las constantes Cn . Ahora procederemos a clasificar los polinomios que
acabamos de definir de forma general. Para ello tomamos en (11.2.1) el
valor n = 1, eligiendo p1 (x) = −x/C1 (lo cual no supone ninguna restricción
ya que, según lo indicado en el Ejercicio 1, siempre podremos hacer una
elección de la variable independiente de tal manera que p1 (x) = −x/C1 ):
/ 0
1 1 d 1 1 ds dω x
p1 (x) = (ω s) = ω +s =− . (11.3.1)
C1 ω dx C1 ω dx dx C1

De esta manera obtenemos una ecuación diferencial que permite determinar


ω(x) en términos de s(x)
$ %
ds
x+
1 dω dx
=− . (11.3.2)
ω dx s(x)

Por hipótesis sabemos que s(x) puede ser un polinomio de grado cero, uno
o dos. Examinaremos una a una estas tres posibilidades, obteniendo para
cada caso particular los correspondientes valores de ω(x), a y b, verificando
(11.2.2).

a.– s(x) es un polinomio de grado cero. Tomemos s(x) = α != 0, donde


α es una constante real. La ecuación diferencial (11.3.2) es ahora

1 dω x 2
= − =⇒ ω(x) = ζ e−x /2α . (11.3.3)
ω dx α
436 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Aquı́ ζ es una constante arbitraria de integración que, sin pérdida de


generalidad, puede tomarse igual a 1 (en efecto, la fórmula de Ro-
drigues generalizada nos indica que el cambio ω(x) → ζ ω(x) no mo-
difica en nada la definición de los polinomios pn (x)). Con la función
ω(x) ası́ obtenida vemos que ω(x) s(x) = 0 sólo cuando x = ±∞,
y ésto siempre y cuando α > 0. Además ω(x) es integrable en el
intervalo (−∞, ∞)
√ si y sólo si α > 0. Hagamos ahora el cambio de
variable y = x/ 2α y apliquemos el resultado del Ejercicio 1 a este
caso; en particular para n = 1 tendremos que (11.3.1) se transforma
en
√ √ 2α
p̃1 (y) = 2α p1 ( 2α y) = − y. (11.3.4)
C1
Vemos que en esta expresión α aparece como una constante global que
puede ser absorbida por C1 , por lo que no pasa nada si efectuamos
la elección α = 1. De esta manera, teniendo en cuenta que la va-
riable independiente es siempre una variable muda a la que podemos
llamar como queramos, podemos renombrar y → x, p̃n (y) → pn (x), y
tenemos fijado en este caso
2
ω(x) = e−x , s(x) ≡ 1, a = −∞, b = ∞. (11.3.5)

b.– s(x) es un polinomio de grado uno. Su forma general es la siguiente:


s(x) = β (x − α), α, β ∈ R, β != 0. La ecuación diferencial (11.3.2)
queda ahora como
1 dω x+β
=− , (11.3.6)
ω dx β (x − α)
que admite como solución la siguiente expresión
− α+β x
−β
ω(x) = ζ (x − α) β e . (11.3.7)
Al igual que en el caso a, podemos tomar ζ = 1 sin perder generalidad.
La función ω(x) s(x) se anula en x = α si (α + β)/β = −ν < 1, y
también en x = ∞ si β > 0, o en x = −∞ si β < 0. Como suele
ser habitual elegimos β > 0. Veamos que ω(x) es integrable en el
intervalo [α, α + p]: integrando por partes tenemos que
1 α+p 2α+p
ν −β
x (x − α)1+ν − βx 22
(x − α) e dx = e 2 (11.3.8)
α (1 + ν) a
1 α+p
1 −x
+ (x − α)1+ν e β dx.
β(1 + ν) α
11.3. CLASIFICACIÓN DE LOS POLINOMIOS ORTOGONALES 437

p 1+ν − α+p
Si ν > −1, el primer término del segundo miembro da (1+ν) e β y,
por otro lado, la segunda integral está bien definida en el sentido de
Riemann, pues se trata de la integral extendida a un intervalo com-
pacto de una función continua. Por otro lado, tampoco hay problemas
de integrabilidad en la zona de valores grandes de x (x >> 1), ya que
allı́ domina la exponencial decreciente. De esta manera la integral
1 ∞
−x
(x − α)ν e β dx (11.3.9)
α

está bien definida. De todo esto inferimos que


ω(x) = (x − α)ν e−x/β . (11.3.10)
es positiva e integrable en el intervalo [α, ∞). Si ahora introducimos
y = (x − α)/β, queda
s(x(y)) = β 2 y, ω(x(y)) = β ν e−α/β y ν e−y . (11.3.11)
Los puntos de anulación son ahora y = 0 e y = ∞. Como las cons-
tantes multiplicativas son irrelevantes porque se pueden reabsorber
en las constantes Cn , las podems eliminar elijiendo β = 1. Volviendo
a la notación inicial haciendo y → x, queda finalmente
s(x) = x, ω(x) = xν e−x , ν > −1, a = 0, b = ∞. (11.3.12)

c.– s(x) es un polinomio de grado dos. Tomemos s(x) = γ (x − α) (β − x)


con β > α, γ != 0. La ecuación diferencial (11.3.2) es ahora
1 dω x + γ (β − x) − γ (x − α)
=− , (11.3.13)
ω dx γ (x − α) (β − x)
y tiene como solución
ω(x) = ζ (x − α)µ (β − x)ν , (11.3.14)
con
α β
µ = −1 − , ν = −1 + . (11.3.15)
γ (β − α) γ (β − α)
Observemos que ω(x) s(x) se anula en x = α y en x = β si µ, ν > −1,
siendo además ω(x) integrable en el intervalo [α, β] (esto se puede de-
mostrar procediendo como en (11.3.8), de manera que no repetiremos
el cálculo).
438 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Efectuamos a continuación el siguiente cambio de variable lineal para


llevar el intervalo [α, β] a [−1, 1]: y = (2x − α − β)/(β − α). Final-
mente eliminamos las constantes superfluas y, llamando de nuevo x a
la variable independiente, obtenemos

s(x) = (1 − x2 ), a = 1, b = −1,
(11.3.16)
ω(x) = (1 − x)ν (1 + x)µ , ν, µ > −1.

Ejercicio 2: analı́cese qué es lo que ocurre si elegimos una función s(x)


que tenga una raı́z doble.
Ejercicio 3: ¿qué sucede si se toma s(x) como un polinomio de grado
mayor o igual a 3?

Podemos resumir los resultados obtenidos en la siguiente tabla, donde


se incluyen además el nombre especı́fico y la notación estándar de cada tipo
de polinomio, ası́ como los valores usuales de las constantes Cn para cada
uno de ellos:

s(x) Cn Intervalo ω(x) Nombre

2
1 (−1)n (−∞, ∞) e−x Hermite: Hn (x)

x n! [0, ∞) xν e−x , ν > −1 Laguerre: Lνn (x)


(ν,µ)
1 − x2 (−2)n n! [−1, 1] (1 − x)ν (1 + x)µ , µ, ν > −1 Jacobi: Pn (x)

Hay varios tipos de polinomios de Jacobi que, por razones históricas y


por su destacado papel en las aplicaciones, reciben nombres especiales. Son
los siguientes:

ω(x) Nombre del polinomio

1 Legendre: Pn (x)
2 λ−1/2
(1 − x ) , λ > −1/2 Gegenbauer: Cnλ (x)
(1 − x2 )−1/2 Chevichev de primera clase: Tn (x)
(1 − x2 )1/2 Chevichev de segunda clase: Un (x)
11.4. RELACIONES DE RECURRENCIA 439

Observemos que el estudio realizado nos ha permitido, en esencia, en-


contrar familias de polinomios ortogonales en los tres tipos generales de
intervalo que podemos tener en R: intervalos cerrados (siendo el prototipo
[−1, 1]), intervalos no acotados por un extremo (como [0, ∞)) e interva-
los no acotados ni superior ni inferiormente (R). Si por algún motivo nos
interesa modificar la forma estándar de alguno de esos intervalos, bastará
con efectuar la transformación lineal adecuada en la variable independiente,
como ya se ha indicado, pues estos polinomios que nos han ido apareciendo
están definidas salvo transformaciones lineales de la variable independiente
y salvo constantes multiplicativas.

11.4 Relaciones de recurrencia

Proseguiremos el tema analizando las relaciones existentes entre diversos


polinomios ortogonales de la misma familia {pn (x)}.

Proposición 1: tres polinomios ortogonales consecutivos de la misma es-


pecie satisfacen una relación del tipo

pn+1 (x) = (An x + Bn ) pn (x) − Dn pn−1 (x). (11.4.1)

Estas son las llamadas relaciones de recurrencia, que como vemos in-
volucran tres términos distintos y consecutivos de la familia pn (x). Las
constantes An , Bn y Dn dependen exclusivamente de n y cambian según
la familia de polinomios que se considere. Todos las familias de polinomios
ortogonales (sean o no los clásicos) satisfacen relaciones de recurrencia del
tipo anterior.

Demostración: la demostración hace uso únicamente de las relaciones de


ortogonalidad (no se usa la fórmula de Rodrigues generalizada, de aquı́ su
validez para otras familias de polinomios ortogonales). A partir de ahora,
usaremos la siguiente notación:

kn := coeficiente de xn en pn (x), (11.4.2)


kn! := coeficiente de xn−1 en pn (x), (11.4.3)
1 b
hn := p2n (x) ω(x) dx. (11.4.4)
a
440 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Considérese ahora el polinomio siguiente

kn+1
pn+1 (x) − x pn (x), (11.4.5)
kn

que por ser de grado menor o igual a n, podrá escribirse como


n
& (n)
ai pi (x), (11.4.6)
i=0

ya que esta expresión es un polinomio arbitrario de grado n. Tomando


esta igualdad entre las ecuaciones (11.4.5) y (11.4.6), multiplicándola por
ω(x) pm para m = 0, 1, 2, . . . , n − 2, e integrando entre a y b resulta
1 b 1 b
kn+1
pn+1 (x) pm (x) ω(x) dx − pn (x) x pm (x) ω(x) dx
a kn a
n
& 1 b
(n)
= ai pi (x) pm (x) ω(x) dx. (11.4.7)
i=0 a

Como hemos visto en la ecuación (11.2.8) del teorema 1, las dos primeras
integrales son cero. Por el mismo motivo, las que aparecen en el segundo
miembro también lo serán salvo en el caso en que i = m, lo que implica
(n)
ai = 0 para i = 0, 1, 2, . . . , n − 2, con lo que reuniendo (11.4.5) y (11.4.6)
queda:

kn+1 (n)
pn+1 (x) − x pn (x) = a(n)
n pn (x) + an−1 pn−1 (x). (11.4.8)
kn

Esta es justamente una relación de recurrencia del tipo buscado, pero para
(n)
completar el resultado ahora hay que determinar los coeficientes an y
(n)
an−1 . Observemos en primer lugar que si tomamos uno de los polinomios
pn (x) y lo expresamos como la suma de su monomio de mayor grado kn xn
más un polinomio de grado n − 1, qn−1 (x), tenemos lo siguiente
1 b 1 b
hn := p2n (x) ω(x) dx = pn (x) kn xn ω(x) dx (11.4.9)
a a
1 b 1 b
+ pn (x) qn−1 (x) ω(x) dx = kn pn (x) xn ω(x) dx,
a a
11.4. RELACIONES DE RECURRENCIA 441

donde hemos tenido en cuenta que qn−1 (x) y pn (x) son ortogonales. Multi-
plicando la relación de recurrencia (11.4.8) por ω(x) pn−1 (x) e integrando,
obtenemos
1 b 1
kn+1 b
pn+1 (x) pn−1 (x) ω(x) dx − x pn (x) pn−1 (x) ω(x) dx (11.4.10)
a kn a
1 b 1 b
(n)
= a(n)
n p n (x) p n−1 (x) ω(x) dx + a n−1 p2n−1 (x) ω(x) dx.
a a

Aplicando ahora el teorema 1 nos damos cuenta que la primera integral en


el miembro de la izquierda ası́ como la primera integral del miembro de
la derecha se anulan. Además la aplicación del mencionado resultado nos
conduce a la siguiente cadena de igualdades
1 b
(n) kn+1
an−1 hn−1 =− x pn (x) pn−1 (x) ω(x) dx
kn a
1 b
kn+1
=− x pn (x)kn−1 xn−1 ω(x) dx
kn a
1 b
kn+1 kn−1
=− kn pn (x) xn ω(x) dx
kn kn a
1 b
kn+1 kn−1 kn+1 kn−1
=− p2n (x) ω(x) dx = − hn , (11.4.11)
kn kn a kn2

de donde
(n) hn kn+1 kn−1
an−1 = − . (11.4.12)
hn−1 kn2
(n)
Para obtener an basta igualar los coeficientes de xn en los dos miembros
de la relación de recurrencia (11.4.8). Hecho esto, se tiene que

! kn+1 !
kn+1 − k = a(n)
n kn . (11.4.13)
kn n

De esta manera, los coeficientes An , Bn y Dn en (11.4.1) quedan ya deter-


minados como
$ ! %
kn+1 kn+1 kn+1 kn! hn kn+1 kn−1
An = , Bn = − , Dn = .
kn kn kn+1 kn hn−1 kn2
(11.4.14)
442 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

11.5 Ecuación diferencial de los polinomios clásicos

Observemos que dpn /dx es un polinomio de grado a lo más n − 1 y por


tanto, según el Lema 1, la función
/ 0
1 d dpn
s(x) ω(x) (11.5.1)
ω(x) dx dx
es en realidad un polinomio de grado a lo más n, lo que nos permite escribir
la siguiente expresión
/ 0 &n
d dpn (n)
s(x) ω(x) = −ω(x) λi pi (x), (11.5.2)
dx dx
i=1

(n)
siendo λi ciertos números. Si multiplicamos ambos lados de la ecuación
(11.5.2) por pm (x) e integramos entre a y b, obtenemos
1 b / 0
d dpn
pm (x) s(x) ω(x) dx = −λ(n)
m hm , m ≤ n. (11.5.3)
a dx dx
Esta última integral puede ser resuelta para m < n integrando por partes
dos veces consecutivas y teniendo en cuenta que la función s(x) ω(x) se
anula en los extremos del intervalo de integración:
1 b / 0
d dpn
pm (x) s(x) ω(x) dx =
a dx dx
2 1 b
dpn 22b dpm dpn
= pm (x) s(x) ω(x) − s(x) ω(x) dx
dx 2a a dx dx
2
dpm 22b
= −pn (x) s(x) ω(x)
dx 2a
1 b $ / 0%
1 d dpm
+ pn (x) ω(x) s(x) ω(x) dx = 0. (11.5.4)
a ω(x) dx dx
La última integral es nula puesto que
/ 0
1 d dpm
s(x) ω(x) = qm (x)
ω(x) dx dx
es un polinomio de grado menor o igual que m < n, que es por tanto
ortogonal a pn (x).
11.5. ECUACIÓN DIFERENCIAL DE LOS POLINOMIOS 443

De lo anterior se extraen dos conclusiones: en primer lugar de (11.5.3)


(n)
y (11.5.4) se deduce que λm = 0 si m < n; en segundo lugar, si en lo
(n)
sucesivo llamamos λn ≡ λn , de (11.5.2) se sigue
/ 0
d dpn
s(x) ω(x) = −λn ω(x) pn (x). (11.5.5)
dx dx
Esta es la ecuación diferencial buscada, que satisfacen los polinomios orto-
gonales clásicos pn (x); expresada de esta manera se suele llamar “forma
autoadjunta” de la ecuación diferencial. Esta ecuación diferencial puede
reducirse a una de las formas tı́picas, bien de la ecuación hipergeométrica,
bien de la hipergeométrica confluente. Para calcular la forma precisa de los
coeficientes λn , tomemos (11.5.3) con m = n:
1 b / 0
d dpn
−λn hn = pn (x) s(x) ω(x) dx (11.5.6)
a dx dx
1 b / 0
d[s(x) ω(x)] dpn (x) d2 pn (x)
= pn (x) + s(x) ω(x) dx.
a dx dx dx2
Usemos ahora la fórmula generalizada de Rodrigues (11.2.1) con n = 1 (es
decir d(ω s)/dx = C1 p1 (x) ω(x)) en el segundo miembro de (11.5.6):
1 b / 0
dpn (x) d2 pn (x)
−λn hn = ω(x) pn (x) C1 p1 (x) + s(x) dx
a dx dx2
1 b
= ω(x) pn (x) {C1 p1 (x) kn n xn−1 } dx (11.5.7)
a
1 b
+ ω(x) pn (x) {s(x) kn n(n − 1) xn−2 } dx ≡ I1 + I2 .
a

En estas simplificaciones hemos tenido en cuenta que debido a la propiedad


de ortogonalidad de los polinomios pn (x) sólo contribuye a las integrales I1
e I2 el monomio de pn (x) que va con la potencia n–ésima de x, es decir kn xn
(para ser precisos, sus derivadas primera y segunda). Teniendo en cuenta
además que p1 (x) = k1 x + k1! (de hecho sólo el término k1 x contribuye),
la primera de las dos integrales que constituyen el miembro de la derecha
en (11.5.7) es
1 b
I1 = C1 k1 n ω(x)pn (x)kn xn dx = C1 k1 n hn , (11.5.8)
a
444 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

sin más que recordar que


1 b 1 b
ω(x) pn (x) kn x dx =
n
ω(x) p2n (x) dx = hn . (11.5.9)
a a

Para evaluar la segunda integral en (11.5.7), recordemos que


s(x) = ϑ2 x2 + ϑ1 x + ϑ0 ,
de donde se deduce que ϑ2 = 12 d2 s(x)/dx2 . Entonces la segunda integral en
el miembro de la derecha de (11.5.7), teniendo en cuenta sólo los términos
que contribuyen de manera neta, se puede reescribir ası́:
1 b
I2 = ω(x) pn (x) ϑ2 n(n − 1) kn xn dx (11.5.10)
a
1
1 d2 s(x) b
1 d2 s(x)
= n(n − 1) ω(x)pn (x)kn xn dx = n(n − 1) hn ,
2 dx2 a 2 dx2
usando el resultado (11.5.9). Podemos ahora retomar (11.5.7), que usando
estos resultados intermedios resulta ser
! "
1 d2 s(x)
−λn hn = I1 + I2 = n C1 k1 + n(n − 1) hn . (11.5.11)
2 dx2
Ası́ pues
/ 0
dp1 (x) 1 d2 s(x)
λn = −n C1 + (n − 1) , (11.5.12)
dx 2 dx2
dp1 (x) d2 s(x)
donde tanto como son constantes.
dx dx2

11.6 Raı́ces de los polinomios ortogonales

Consideremos como hasta ahora que {pn (x)} es una familia de polinomios
ortogonales en el intervalo [a, b]. Se verifica lo siguiente:
Teorema 2: los ceros de los polinomios pn (x) son reales, simples y están
contenidos en el abierto (a, b).
Demostración: como ω(x) ≥ 0 en (a, b) y la integral
1 b
ω(x) pn (x) dx = 0 si n > 0,
a
11.7. SERIES DE POLINOMIOS ORTOGONALES 445

pn (x) debe cambiar de signo al menos una vez en (a, b). Sean x1 , . . . , x" ,
con 1 ≤ ' ≤ n los puntos de (a, b) en los cuales pn (x) cambia de signo
(es decir, son ceros de pn (x) en (a, b) y como hemos visto son un número
mayor que 1 y obviamente menor o igual que el grado del polinomio, n).
Introducimos ahora el siguiente polinomio auxiliar
"
#
π" (x) = (x − xk ).
k=1

Por construcción, resulta claro que el polinomio pn (x) π" (x) tiene signo
constante en (a, b) (salvo en los puntos x1 , . . . , x" , donde se anula), por
tanto 1 b
ω(x) pn (x) π" (x) dx != 0. (11.6.1)
a

Pero como π" (x) es un polinomio de grado ' ≤ n, debe ser ortogonal a
pn (x), y la única manera de evitar la contradicción con (11.6.1) es que
justamente ' = n, con lo que el teorema queda probado: hay n puntos en
(a, b) en los cuales pn (x) cambia de signo, y son por tanto n ceros reales y
simples del polinomio.
También puede demostrarse el siguiente resultado, aunque no ofrecere-
mos aquı́ la prueba:
Teorema 3: entre dos ceros consecutivos de pn (x) hay exactamente un
cero de pn+1 (x) y al menos un cero de pn+k (x), k > 0.

11.7 Series de polinomios ortogonales

Definición 1: sea L2ω (a, b) el espacio de las funciones reales f (x) para las
cuales existe en el sentido de Lebesgue la integral
1 b
ω(x)[f (x)]2 dx < ∞. (11.7.1)
a

Consideremos una familia {p̃n (x)} = { √1h pn (x)} de polinomios ortogo-


n
nales en L2ω (a, b) (la elección de las constantes hace que se trate de hecho
de una familia de polinomios ortonormales). Nos podemos plantear el pro-
blema consistente en determinar si es posible aproximar cualquier función
446 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

f (x) ∈ L2ω (a, b) por una combinación lineal de estos polinomios


n
&
ck p̃k (x),
k=0

de manera tal que la integral


1 b
In (ck ) = ω(x)[f (x) − c0 p̃0 (x) − · · · − cn p̃n (x)]2 dx ≥ 0 (11.7.2)
a

(tomada como una medida de la precisión de esta aproximación), sea mı́-


nima. El lector que haya estudiado el Capı́tulo 3, dedicado a las series de
Fourier, verá aquı́ grandes semejanzas con lo que allı́ se hacı́a para aproxi-
mar funciones por series trigonométricas: ahora el papel desempeñado en
aquella ocasión por las funciones trigonométricas {sen nx, cos nx} (que,
aunque no son polinomios, ya vimos que son una familia de funciones orto-
gonales en [−π, π]) lo juegan los polinomios ortonormales en [a, b], p̃k (x).
Se puede demostrar que la elección más adecuada de los coeficientes ck
para lograr una mejor aproximación a la función f (x) es tomarlos de modo
que sean los “coeficientes de Fourier” 13 , definidos de la siguiente manera:
1 b
ak = .f (x)|p̃k (x)/ = ω(x)f (x)p̃k (x) dx, (11.7.3)
a

donde hemos usado la notación de los productos escalares, que ya nos es


familiar. En efecto, desarrollando el cuadrado en el integrando de (11.7.2)
y teniendo en cuenta las propiedades de ortogonalidad, tenemos que
1 b n
& n
&
In (ck ) = ω(x)[f (x)] dx +
2
c2k −2 ck ak
a k=0 k=0
1 b &n n
&
= ω(x)[f (x)] dx +
2
(ck − ak ) −2
a2k .
a k=0 k=0

Esta “distancia” entre f (x) y la suma parcial será mı́nima si eliminamos el


primer sumatorio, cuya contribución es siempre positiva, es decir, si esco-
gemos ck = ak . De este modo la mejor aproximación mediante una suma
13
Como se verá a continuación, se usa aquı́ la misma terminologı́a introducida en el
tema de las series de Fourier.
11.7. SERIES DE POLINOMIOS ORTOGONALES 447

parcial (n + 1)–ésima a la función f (x) es la “serie de Fourier generalizada”


siguiente

&
ak p̃k (x) ∼ f (x), (11.7.4)
k=0
siendo
V 2 W
n
& 2 n
&
2
In (ak ) = f (x) − ak p̃k (x) 2f (x) − ak p̃k (x)
2
k=0 k=0

1 + n
,2
b &
= ω(x) f (x) − ak p̃k (x) dx
a k=0
1 b n
&
= ω(x)[f (x)] dx − 2
a2k ≥ 0
a k=0

una medida de la precisión en la aproximación. Como In (ak ) ≥ 0 resulta



&
que la serie a2k es convergente y tenemos que se verifica la “desigualdad
k=0
de Bessel” 1

& b
a2k ≤ ω(x)[f (x)]2 dx.
k=0 a

Cuando se cumpla la “relación de Parseval”


&∞ 1 b
a2k = ω(x)[f (x)]2 dx
k=0 a

para toda función f (x) ∈ L2ω (a, b) diremos que la familia {p̃n (x)} es un
conjunto ortonormal cerrado en L2ω (a, b). En este caso

lim In (ak ) = 0
n→∞

y diremos entonces que la suma parcial de la serie de Fourier generalizada


(11.7.4) converge en media a f (x). De hecho, se puede demostrar que en
L2ω (a, b) cualquier sistema ortogonal cerrado es completo, es decir si

.f (x)|p̃n (x)/ = 0, ∀n ∈ N,

entonces f (x) = 0 casi en todo punto de (a, b) (se darán más detalles en el
Segundo Volumen, al analizar la teorı́a de espacios de Hilbert).
448 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Igualmente se puede demostrar que cualquier familia de polinomios or-


togonales en un intervalo finito (a, b) es cerrada. Esta propiedad deja de
ser cierta en general cuando el intervalo tiene una longitud infinita.

Los resultados que se han comentado anteriormente pueden presentarse


de manera ligeramente diferente mediante el siguiente resultado fundamen-
tal, cuyo análisis nos lleva directamente a la teorı́a de espacios de Hilbert.

6
Teorema 4: las funciones { √1h pn (x) ω(x), n ∈ N} forman un conjunto
n
ortonormal completo en L2 (a, b). Esto significa que toda función f (x) de
cuadrado integrable en el intervalo (a, b) puede ponerse como

& 6
1
f (x) = fn √ pn (x) ω(x) , (11.7.5)
n=0
hn

donde 1 b
1 6
fn = √ pn (x) ω(x) f (x) dx, (11.7.6)
a hn
y la serie converge en la norma de L2 (a, b).

Observemos que los resultados precedentes no informan sobre la con-


vergencia puntual. En estos desarrollos en serie de polinomios ortogonales
sucede como con los desarrollos en serie de Fourier: en los puntos de con-
tinuidad de la función f (x) la serie converge puntualmente a la función, pero
en los puntos de discontinuidad de f (x) la serie converge a la semisuma de
los lı́mites laterales de la función en el punto de discontinuidad.

11.8 Funciones generatrices

Definición 1: dada una función de dos variables G(x, z) desarrollable en


serie de potencias enteras en z en un cierto dominio D

&
G(x, z) = fn (x) z n ,
n=0

diremos que G(x, z) es la función generatriz de las funciones {fn (x)}.


En particular, supongamos ahora que las funciones fn (x) son polinomios
de grado n, pn (x). Se verifica el siguiente resultado:
11.9. POLINOMIOS CLÁSICOS 449

Teorema 5: la condición necesaria y suficiente para que los polinomios


pn (x) definidos mediante el desarrollo

&
G(x, z) = pn (x) z n , (11.8.1)
n=0

sean ortogonales en [a, b] con función de peso ω(x) es que la integral


1 b
I(z, t) = G(x, z) G(x, t) ω(x) dx (11.8.2)
a

sólo dependa de las variables z y t mediante el producto (zt).


Demostración: operando tenemos
1 b 1 b ∞
&
I(z, t) = G(x, z) G(x, t) ω(x) dx = pm (x) pn (x) z m tn ω(x) dx
a a m,n=0

& 1 b
= z m tn pm (x) pn (x) ω(x) dx.
m,n=0 a

De aquı́ se deduce que si los polinomios pn (x) son ortogonales entonces



&
obviamente I(z, t) = I(zt). Por otro lado, si I(z, t) = I(zt) = αk (zt)k ,
n=0
entonces se sigue también la ortogonalidad de los polinomios.

11.9 Polinomios clásicos

Hasta ahora hemos obtenido un conjunto bastante general de propiedades


de los polinomios ortogonales clásicos. Ya vimos que, dependiendo de cual
fuera el grado del polinomio s(x), podı́an ser de diferentes tipos y recibı́an
nombres concretos (véanse las dos tablas de la sección 11.3). Para especi-
ficar de manera totalmente precisa los polinomios debemos fijar la constante
Cn que aparece en la fórmula de Rodrigues generalizada. Conocido el valor
de Cn (que se toma de manera en principio arbitraria, pero tal que las
fórmulas resulten sencillas) se puede determinar el de las otras constantes
kn , kn! y hn de forma unı́voca. Las dos primeras se obtienen directamente de
la fórmula de Rodrigues generalizada y hn de su definición, de la siguiente
450 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

manera:
1 b 1 b
hn = p2n (x) ω(x) dx = kn xn pn (x) ω(x) dx
a a
1 b
kn dn
= xn (ω(x) sn (x)) dx, (11.9.1)
Cn a dxn
de donde al integrar por partes resulta
1
(−1)n kn n! b n
hn = s (x) ω(x) dx. (11.9.2)
Cn a

En lo que resta de la presente sección, partiendo del valor estándar de


Cn y de los valores de ω(x) y s(x) ya obtenidos en secciones precedentes,
expondremos una lista de resultados que el lector puede demostrar por su
cuenta. Se analizarán únicamente los polinomios ortogonales clásicos14 que
más frecuentemente aparecen en las aplicaciones, que son los de Hermite,
Laguerre, Legendre y Chevichev, no los de Gegenbauer15 .

11.9.1 Polinomios de Hermite Hn (x)

Constantes relevantes:
√ n
Cn = (−1)n , kn = 2n , kn! = 0, hn = π 2 n! (11.9.3)

Fórmula de Rodrigues:
2 dn −x2
Hn (x) = (−1)n ex (e ). (11.9.4)
dxn
14
Además de los llamados polinomios clásicos, existen otras familias de polinomios
ortogonales que han sido estudiadas con detalle, como son los polinomios de Bernstein
(Sergi Natanovich Bernstein (1880–1968), matemático ruso) y Szegö (Gábor Szegö (1895–
1985), matemático húngaro, autor de un excelente libro sobre polinomios ortogonales), los
de Heine (Heinrich Eduard Heine (1821–81), matemático alemán que efectuó importantes
contribuciones al Análisis) y Akhiezer (Naum Il’ich Akhiezer (1901–80), matemático
ruso), o los de Pollaczek. Otro tipo de polinomios que aparecen a veces son unos en los
cuales la variable no toma valores continuos, sino discretos; mencionemos entre estos los
polinomios de Hahn (Hans Hahn (1879–1934), matemático austrı́aco), Charlier, Meixner,
Chevichev y Krawtchouk (Mikhail Philipovich Krawtchouk (1892–1942), matemático
ucraniano, fallecido en el campo de trabajo de Kolyma, en Siberia). Para más información
sobre este tema, consúltese el libro de Erdélyi.
15
Leopold Bernhard Gegenbauer (1849–1903), matemático austrı́aco.
11.9. POLINOMIOS CLÁSICOS 451

Ecuación diferencial (de Hermite):

Hn!! (x) − 2x Hn! (x) + 2n Hn (x) = 0. (11.9.5)


Obsérvese que, para cada n fijado, esta ecuación diferencial tendrá otras
soluciones que no serán polinómicas16 ; sólo las polinómicas se asocian a
los polinomios de Hermite. Resolviendo la ecuación diferencial de Hermite
por el método de desarrollos en serie (cosa que se efectuará en el Apéndice
que aparece al final de este capı́tulo), puede demostrarse que la expresión
general de los polinomios de Hermite es
[n/2]
& (−1)r n!(2x)n−2r
Hn (x) = , (11.9.6)
r!(n − 2r)!
r=0

donde ['] representa la parte entera de '. En esta fórmula son evidentes las
propiedades de paridad que tienen estos polinomios: son pares para n par
e impares para n impar. De aquı́ se deduce también que

(−1)n (2n)!
H2n (0) = , H2n+1 (0) = 0. (11.9.7)
n!
En términos de funciones hipergeométricas confluentes, los polinomios de
Hermite se expresan ası́:

(2n)!
H2n (x) = (−1)n 1 F1 (−n; 1/2; x ).
2
(11.9.8)
n!
2(2n + 1)!
H2n+1 (x) = (−1)n x 1 F1 (−n; 3/2; x2 ). (11.9.9)
n!

Relación de recurrencia:

Hn+1 (x) = 2x Hn (x) − 2n Hn−1 (x). (11.9.10)

Relación de ortogonalidad explı́cita:


1 ∞
2 √
dx e−x Hn (x) Hm (x) = π 2n n! δn m . (11.9.11)
−∞
16
Estas funciones, y en general las soluciones de la ecuación de Hermite cuando se
sustituyte n por un número real arbitrario, se denominan funciones cilı́ndrico-parabólicas
y son casos particulares de funciones hipergeométricas confluentes
452 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Vamos a deducir a continuación los resultados precedentes, correspondiente a los poli-


nomios de Hermite, como ejemplo del tipo de cálculos que es preciso efectuar para los
otros tipos de polinomios. Lo primero es obtener la fórmula de Rodrigues, lo cual se
2
hace a partir de (11.2.1). Recordemos que, en nuestro caso, s(x) ≡ 1 y que ω(x) = e−x .
n
Si, para simplificar la notación, llamamos D a la derivada n-ésima con respecto a x, la
fórmula de Rodrigues se escribe
1 x2 n −x2
Hn (x) = e D e . (11.9.12)
Cn
Cn es un dato que debe darse a priori. La elección que suele hacerse para los polinomios
de Hermite es Cn = (−1)n , lo que nos da la expresión definitiva de la fómula de Rodrigues
en este caso particular:
2 2
Hn (x) = (−1)n ex Dn e−x . (11.9.13)
He aquı́ una tabla con los seis primeros polinomios de Hermite:

Hn (x)

H0 (x) = 1
H1 (x) = 2x
H2 (x) = 4x2 − 2
H3 (x) = 8x3 − 12x
H4 (x) = 16x4 − 48x2 + 12
H5 (x) = 32x5 − 160x3 + 120x

Algunas de estas funciones se representan en la Figura 11.1.

150

100

50 H3 HxL

-2 -1 1 2
H4 HxL
-50

-100 H5 HxL

-150

Figura 11.1: Algunos polinomios de Hermite.

El siguiente paso es obtener las constantes kn y kn$ . Demostraremos por inducción


que estas constantes valen respectivamente 2n y cero, o lo que es lo mismo que
Hn (x) = 2n xn + qn−2 (x),
11.9. POLINOMIOS CLÁSICOS 453

siendo qn−2 (x) un polinomio de grado n−2. Partiendo de esta situación como hipótesis de
inducción (hipótesis que se cumple para los polinomios que tenemos en la tabla anterior),
escribamos la ecuación (11.9.13) con ı́ndice n + 1 como

(−1)n+1 ω(x) Hn+1 (x) = Dn+1 ω(x) = D(Dn ω(x)) = D((−1)n ω(x) Hn (x))
dω(x) dHn (x)
= (−1)n Hn (x) + (−1)n ω(x)
dx dx
2 2 dHn (x)
= −(−1)n 2x e−x Hn (x) + (−1)n e−x
dx
2
= (−1)n {−2x(2n xn + qn−2 (x)) + n 2n xn−1 + qn−3 (x)} e−x .

De la ecuación anterior se obtiene inmediatamente que


$
Hn+1 (x) = 2n+1 xn+1 + qn−1 (x) =⇒ kn+1 = 2n+1 , kn+1 = 0. (11.9.14)

Para obtener la constante hn , utilizamos (11.9.2):


1 ∞ 2
hn = 2n n! e−x dx. (11.9.15)
−∞

La integral en (11.9.15) ya apareció al estudiar la función Γ(z) en el primer capı́tulo de


esta obra; para resolverla recordemos que su cuadrado es justamente
1 ∞ 1 ∞ 1 ∞ 1 ∞
2 2 2
+y 2
I2 = e−x dx e−y dy = dx dy ex . (11.9.16)
−∞ −∞ −∞ −∞

Integral extendida a todo el plano R 2 que se puede escribir en coordenadas polares:


1 2π 1 ∞ 1 ∞
2 2
I2 = dθ ρ e−ρ dρ = 2π ρ e−ρ . (11.9.17)
0 0 0

Efectuando el cambio de variable u = ρ2 , nos queda finalmente


1 ∞ √
I2 = π e−u du = π =⇒ hn = π 2n n!. (11.9.18)
0

La fórmula de recurrencia se deduce de las ecuaciones (11.4.14), que en este caso son
An = 2, Bn = 0, Dn = 2n. De modo que

Hn+1 (x) = 2x Hn (x) − 2n Hn−1 (x). (11.9.19)

Para obtener la ecuación diferencial que satisfacen los polinomios de Hermite usamos
(11.5.5) y (11.5.12). Falta fijar λn , dada por (11.5.12). Los datos que precisamos son

dH1 (x) d2 s(x)


H1 (x) = 2x =⇒ = 2; s(x) = 1 =⇒ = 0; C1 = −1. (11.9.20)
dx dx2
La ecuación (11.5.12) nos dice que λn = 2n. Usando (11.5.5) obtenemos finalmente

d2 Hn (x) dHn (x)


− 2x + 2n Hn (x) = 0 (11.9.21)
dx2 dx
454 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Ofrecemos a continuación dos resultados que pueden ser útiles y que se


proponen como ejercicios. Se trata de la relación de recurrencia

Hn! (x) = 2n Hn−1 (x), (11.9.22)

y de la expresión de la función generatriz de estos polinomios



&
2 1
e2xt−t = Hn (x) tn . (11.9.23)
n!
n=0

Las llamadas funciones de Hermite se construyen a partir de los poli-


nomios de Hermite, de la función peso correspondiente y de la constante
de normalización de la siguinete manera
1 2
ϕn (x) = √ √ Hn (x) e−x /2 , (11.9.24)
4
π 2 n!
n

y se prueba que forman un conjunto ortonormal completo en L2 (−∞, ∞).

11.9.2 Polinomios de Laguerre Lνn (x)

Constantes relevantes:
$ %
(−1)n n+ν Γ(n + ν + 1)
Cn = n!, kn = , kn! =− kn , hn = .
n! n n!
(11.9.25)
Fórmula de Rodrigues:
1 −ν x dn −x n+ν
Lνn (x) = x e (e x ). (11.9.26)
n! dxn
Ecuación diferencial:
d2 ν d ν
x L (x) + (ν + 1 − x) L (x) + n Lνn (x) = 0. (11.9.27)
dx2 n dx n
Se pueden expresar en términos de funciones hipergeométricas confluentes:
Γ(n + ν + 1)
Lνn (x) = 1 F1 (−n; ν + 1; x). (11.9.28)
n! Γ(ν + 1)

Relación de recurrencia:

(n + 1) Lνn+1 (x) = (2n + ν + 1 − x) Lνn (x) − (n + ν) Lνn−1 (x). (11.9.29)


11.9. POLINOMIOS CLÁSICOS 455

Los polinomios de Laguerre aparecen con frecuencia en las aplicaciones de


la mecánica cuántica. Conviene indicar que habitualmente se denomina de
este modo a los que aparecen cuando ν = 0 (se denotan entonces como
L0n (x) ≡ Ln (x)) y que cuando ν != 0 se suelen denominar polinomios gene-
ralizados de Laguerre. Resolviendo la ecuación diferencial (11.9.27) usando
el método de Frobenius se encuentra que la forma explı́cita de estos poli-
nomios es:
n
& (−1)r Γ(n + ν + 1)
Lνn (x) = xr . (11.9.30)
(n − r)! r! Γ(r + ν + 1)
r=0

Obsérvese que Lν0 (0) = L0n (0) = 1. He aquı́ una tabla con polinomios de
Laguerre.

Ln (x)

L0 (x) = 1
L1 (x) = 1 − x
L2 (x) = 12 [2 − 4x + x2 ]
L3 (x) = 16 [6 − 18x + 9x2 − x3 ]
L4 (x) = 1
24
[24 − 96x + 72x2 − 16x3 + x4 ]

En la Figura 11.2 se representan algunos polinomios de Laguerre.

10

5
L3 HxL
2 4 6 8 10
L4 HxL
-5
L5 HxL
-10

Figura 11.2: Algunos polinomios de Laguerre.


456 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

La función generatriz de los polinomios de Laguerre es


! " &∞
1 xt
exp − = Lνn (x) tn . (11.9.31)
(1 − t)1+ν 1−t
n=0

En la siguiente tabla se muestran algunos polinomios generalizados de


Laguerre y a continuación la gráfica de algunos de ellos:

Lνn (x)

L11 (x) = 2 − x
L12 (x) = 3 − 3x + 12 x2
L31 (x) = 4 − x
L32 (x) = 10 − 5x + 12 x2
L51 (x) = 6 − x

30

20
L3 4 HxL
10
L4 1 HxL

2 4 6 8 10
L5 2 HxL
-10

Figura 11.3: Algunos polinomios generaliza-


dos de Laguerre.

Las siguientes funciones, construidas con los polinomios de Laguerre, su


función de peso y su normalización,
8
n!
gnν (x) = Lν (x) xν/2 e−x/2 , (11.9.32)
Γ(n + ν + 1) n

forman un conjunto ortonormal completo en L2 [0, ∞].


11.9. POLINOMIOS CLÁSICOS 457

11.9.3 Polinomios de Legendre Pn (x)

Estos polinomios también se llaman a veces “polinomios esféricos”. sus


constantes relevantes son:
2n Γ(n + 1/2)
Cn = (−2)n n!, kn = , kn! = 0, hn = (n + 1/2)−1 .
n! Γ(1/2)
(11.9.33)
Fórmula de Rodrigues17 :
(−1)n dn
Pn (x) = [(1 − x2 )n ]. (11.9.34)
2n n! dxn
Ecuación diferencial18 (de Legendre):
d2 d
(1 − x2 ) 2
Pn (x) − 2x Pn (x) + n(n + 1) Pn (x) = 0. (11.9.35)
dx dx
En términos de funciones hipergeométricas se pueden escribir

Pn (x) = 2 F1 (−n, n + 1; 1; (1 − x)/2). (11.9.36)

Relación de recurrencia:

(n + 1) Pn+1 (x) = (2n + 1) x Pn (x) − n Pn−1 (x). (11.9.37)

En este caso, una consecuencia inmediata de la fórmula de Rodrigues es la


siguiente:
Pn (−x) = (−1)n Pn (x). (11.9.38)
De (11.9.34) se obtiene P0 (x) ≡ 1, P1 (x) ≡ x. Esto implica que P0 (1) = 1
y que P1 (1) = 1. Con ayuda de la fórmula de recurrencia obtenemos por
inducción que Pn (1) = 1.
17
La fórmula de Rodrigues generalizada es una extensión de este resultado, derivado
originalmente por Rodrigues.
18
Cuando el parámetro n que aparece en esta ecuación diferencial no es un número
natural sino un número real o incluso complejo, las soluciones de la ecuación no son
polinomios. Aparecen funciones más complicadas llamadas funciones de Legendre de
primera y segunda especie, que no vamos a considerar aquı́ (para más información véanse
los libros de Abramowitz & Stegun, y de Erdélyi et al ). Lo mismo sucede con la segunda
solución linealmente independiente de la ecuación de Legendre. Como ejemplo, una
segunda solución para n = 0 linealmente independiente de P0 (x) es
1 x+1
Q0 (x) = ln .
2 x−1
458 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

La expresión general de estos polinomios es


[n/2]
1 & (−1)r (2n − 2r)!
Pn (x) = xn−2r . (11.9.39)
2 n r! (n − r)! (n − 2r)!
r=0

Se observa claramente en esta fórmula que estos polinomios poseen la misma


paridad que su ı́ndice n.
La función generatriz de los polinomios de Legendre es
& ∞
1
√ = Pn (x) tn , (11.9.40)
1 − 2tx + t 2
n=0

y su relación de ortogonalidad en forma explı́cita


1 1
2
dx Pn (x) Pm (x) = δn m . (11.9.41)
−1 2n + 1

A continuación se ofrece una tabla con los primeros polinomios de Le-


gendre, y en la Figura 11.4 se representan algunos de ellos:

Pn (x)

P0 (x) = 1
P1 (x) = x
P2 (x) = 12 [3x2 − 1]
P3 (x) = 12 [5x3 − 3x]
P4 (x) = 18 [35x4 − 30x2 + 3]

0.5
P3 HxL

-1 -0.5 0.5 1
P4 HxL

-0.5
P5 HxL

-1

Figura 11.4: Algunos polinomios de Legendre.


11.9. POLINOMIOS CLÁSICOS 459

Partiendo de los polinomios de Legendre se pueden construir las siguien-


tes funciones (polinomios)
8$ %
1
fn (x) = n+ Pn (x), (11.9.42)
2

que forman un conjunto ortonormal completo en L2 [−1, 1].

Vamos a mostrar mediante un ejemplo sencillo cómo surgen de manera


natural los polinomios de Legendre en Fı́sica. Para ello vamos a analizar
el potencial coulombiano creado por una carga unidad situada en un punto
distinto del origen19 . Si llamamos O al origen de coordenadas y la carga
se supone situada en un punto A (cuyo vector de posición es "rA ), el po-
tencial creado en un punto arbitrario P cuyo vector de posición es "r, es
esencialmente
1 1 1 1
V ("r, "rA ) = = = =7
"
|AP | " "
|OP − OA| |"
r − "
r |
A r2 − 2 "r·"r + r2 A A
1
∝ 7 ,
1 − 2 (r/rA ) cos θ + (r/rA )2
siendo θ el ángulo formado por los vectores "rA y "r. Tomemos cos θ = x
y r/rA = t, y consideremos la función que aparece en la fórmula anterior
(que si nos fijamos no es ni más ni menos que la función generatriz de
los polinomios de Legendre que se introdujo en (11.9.40)). Sin más que
desarrollar en serie y operar obtenemos lo siguiente:

& (2n)!
1
√ = (1 − t(2x − t))−1/2 = tn (2x − t)n
1 − 2tx + t2 22n (n!)2
n=0

& n
(2n)! n & n!
= t (−1)k tk (2x)n−k
2 (n!)
2n 2 k! (n − k)!
n=0 k=0
 
∞ ["/2]
& & (−1)k (2' − 2k)!
=  x"−2k  t" .
2" k!(' − k)!(' − 2k)!
"=0 k=0

El coeficiente de t" es precisamente el polinomio de Legendre P" (x).


19
O si se prefiere, el potencial newtoniano creado por un punto material de masa
unidad; en cualquier caso se eligen las unidades de modo que las constantes fı́sicas que
aparecen en el potencial se toman iguales a la unidad.
460 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

11.9.4 Polinomios de Chevichev de primera especie Tn (x)

A diferencia de lo que sucede con los polinomios de Hermite, Laguerre


o Legendre, los polinomios de Chevichev20 no surgen al resolver ningún
problema sencillo en mecánica cuántica, pero sı́ juegan un papel desta-
cado en la descripción directa ciertos fenómenos, en concreto al invertir
la transformada de Radon21 y también al calcular la densidad electrónica
creada por un átomo con n niveles electrónicos completamente ocupados22 .
Su importancia en matemáticas es también notable, debido a sus múltiples
aplicaciones tanto en teorı́a de la aproximación de funciones por polinomios
como en análisis numérico23 .
Constantes relevantes:
(2n)! π
Cn = (−1)n , kn = 2n−1 , kn! = 0, hn = . (11.9.43)
2n n! 2

Fórmula de Rodrigues:

2n n! dn
Tn (x) = (−1)n (1 − x2 )1/2 n ((1 − x2 )n−1/2 ). (11.9.44)
(2n)! dx

Ecuación diferencial (de Chevichev):

d2 d
(1 − x2 ) 2
Tn (x) − x Tn (x) + n2 Tn (x) = 0. (11.9.45)
dx dx
20
Pafnuti Lvovich Chevichev (1821–94), matemático ruso bien conocido por sus traba-
jos en teorı́a de aproximación de funciones, geometrı́a diferencial, polinomios ortogonales
y probabilidad. El nombre “Chevichev” es una transliteración del alfabeto cirı́lico, por
lo que a veces se encuentran grafı́as diferentes, como por ejemplo Chevyshev, Tchebyshef
y otras similares.
21
La transformada de Radon es la herramienta matemática en la que se basa la técnica
médica denominada tomografı́a realizada con los scanners, como ya se comentó en el
último problema del tema 4. Para más detalles véase el artı́culo de Cormack que se cita
en la bibliografı́a.
22
Esto fue demostrado por Fock (Vladimir Alexandrovich Fock (1898–?), fı́sico teórico
ruso que impulsó el desarrollo de la mecánica cuántica de los sistemas multielectrónicos
y realizó también importantes contribuciones a la teorı́a de la relatividad general). Los
detalles puede verse en el libro de N. March mencionado al final del capı́tulo.
23
Podemos citar, por ejemplo, la inversión de matrices, la evaluación numérica de inte-
grales, la integración numérica de ecuaciones diferenciales, o la más precisa aproximación
a una función en el intervalo [−1, 1] (más precisa en el sentido que la máxima magnitud
del error en la aproximación se minimiza).
11.9. POLINOMIOS CLÁSICOS 461

En términos de funciones hipergeométricas se tiene

Tn (x) = 2 F1 (−n, n; 1/2; (1 − x)/2). (11.9.46)

Tomando x = cos θ en (11.9.45), la ecuación se transforma en

d2 y
+ n2 y = 0, (11.9.47)
dx2
que admite como soluciones linealmente independientes cos nθ y sen nθ.
Por tanto, la solución general de (11.9.45) se escribe como una combinación
lineal de las funciones cos(n arccos x) y sen (n arccos x). La función cos nθ
es un polinomio de grado n en la variable cos θ, que es precisamente el
polinomio de Chevichev de primera especie

Tn (cos θ) = cos nθ. (11.9.48)

Relación de recurrencia:

Tn+1 (x) = 2x Tn (x) − Tn−1 (x). (11.9.49)

La forma explı́cita de estos polinomios es:

[n/2]
& n!
Tn (x) = xn−2r (1 − x2 )r . (11.9.50)
(2r)! (n − 2r)!
r=0

La función generatriz es

& ∞
1 − t2
= T0 (x) + 2 Tn (x) tn . (11.9.51)
1 − 2tx + t2
n=1

La relación de ortogonalidad se expresa:


1 1
Tm (x) Tn (x) π
√ dx = δm,n (1 + δm,0 ). (11.9.52)
−1 1−x 2 2

A continuación se ofrece una tabla con polinomios de Chevichev de


primera especie y en la Figura 11.5 se representan algunos de ellos:
462 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Tn (x)

T0 (x) = 1
T1 (x) = x
T2 (x) = 2x2 − 1
T3 (x) = 4x3 − 3x
T4 (x) = 8x4 − 8x2 + 1
T5 (x) = 16x5 − 20x3 + 5x

0.5
T2 HxL
-1 -0.5 0.5 1 T3 HxL
-0.5
T4 HxL
-1
Figura 11.5: Algunos polinomios de Chevichev
de primera especie.

11.9.5 Polinomios de Chevichev de segunda especie Un (x)

Constantes relevantes:
(2n + 1)! π
Cn = (−1)n , kn = 2n , kn! = 0, hn = . (11.9.53)
2n (n + 1)! 2

Fórmula de Rodrigues:
2n (n + 1)! dn
Un (x) = (−1)n (1 − x2 )−1/2 n ((1 − x2 )n+1/2 ). (11.9.54)
(2n + 1)! dx

Ecuación diferencial:
d2 d
(1 − x2 ) 2
Un (x) − 3x Un (x) + n(n + 2) Un (x) = 0. (11.9.55)
dx dx
11.9. POLINOMIOS CLÁSICOS 463

Es fácil probar que√una segunda solución de la ecuación (11.9.45), indepen-


diente de Tn (x) es 1 − x2 Un (x). De hecho, la solución sen nθ de (11.9.47)
no es polinomio en cos θ, pero sı́ lo es (sen nθ)/sen θ, de grado n − 1. Éste
es precisamente el polinomio de Chevichev de segunda especie:
sen nθ
Un (cos θ) =. (11.9.56)
sen θ
En términos de funciones hipergeométricas se tiene
Un (x) = (n + 1) 2 F1 (−n, n + 2; 3/2; (1 − x)/2). (11.9.57)

Relación de recurrencia:
Un+1 (x) = 2x Un (x) − Un−1 (x). (11.9.58)
La forma explı́cita de estos polinomios es:
[n/2]
& (n + 1)!
Un (x) = (−1)r xn−2r (1 − x2 )r . (11.9.59)
(2r + 1)! (n − 2r)!
r=0

La función generatriz es
& ∞
1
= Un (x) tn . (11.9.60)
1 − 2tx + t 2
n=0

La relación de ortogonalidad es en este caso:


1 1 6 π
Um (x) Un (x) 1 − x2 dx = δm,n . (11.9.61)
−1 2

A continuación se ofrece una tabla con polinomios de Chevichev de


segunda especie y en la Figura 11.6 se representan algunos de ellos:

Un (x)

U0 (x) = 1
U1 (x) = 2x
U2 (x) = 4x2 − 1
U3 (x) = 8x3 − 4x
U4 (x) = 16x4 − 12x2 + 1
U5 (x) = 32x5 − 32x3 + 6x
464 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

2
U2 HxL

-1 -0.5 0.5 1 U3 HxL


-2 U4 HxL
-4
Figura 11.6: Algunos polinomios de Chevichev
de segunda especie.

11.10 Funciones asociadas de Legendre y armóni-


cos esféricos

Para concluir este tema creemos absolutamente necesario introducir las


funciones asociadas de Legendre, Plm (x), y los armónicos esféricos, debido
a su gran importancia en las aplicaciones.
Sean l = 0, 1, 2, . . . y m = −l, −l + 1, . . . , l. Definamos las funciones
asociadas de Legendre de ı́ndices l y m ≥ 0 a partir de los polinomios de
Legendre de la siguiente manera24 :
dm
Plm (x) = (−1)m (1 − x2 )m/2 Pl (x), m ≥ 0. (11.10.1)
dxm
Para valores negativos del superı́ndice la definición es:
(l − m)! m
Pl−m (x) = (−1)m P (x), m ≥ 0. (11.10.2)
(l + m)! l
Para m > 0 la fórmula de Rodrigues nos da
1 dl+m
Plm (x) = (−1)m+l (1 − x2 )m/2 (1 − x2 )l , m > 0.
l! 2l dxl+m
24
Es posible encontrar en algún libro una definición ligeramente diferente de ésta en el
término (−1)m , lo que no debe llevar a confusiones importantes.
11.10. ARMÓNICOS ESFÉRICOS 465

Obviamente se verifica que Pl0 (x) = Pl (x), son los polinomios de Legendre.
Para valores enteros impares
√ de m, las funciones asociadas de Legendre
contienen potencias de 1 − x2 , y por tanto no son polinomios. Las fun-
ciones asociadas de Legendre son las soluciones regulares en el intervalo
[−1, 1], convenientemente normalizadas, de la ecuación diferencial25
d2 m d m m2
(1 − x2 ) Pl (x) − 2x Pl (x) + l(l + 1) Plm (x) − P m (x) = 0,
dx 2 dx 1 − x2 l
(11.10.3)
y verifican la siguiente relación de ortogonalidad:
1 1
2 (l + m)!
Plm (x) Plm
$ (x) dx = δl,l$ . (11.10.4)
−1 2l + 1 (l − m)!

Partiendo de las funciones asociadas de Legendre se definen los armóni-


cos esféricos, que aparecen, por ejemplo, al resolver la ecuación de Laplace
∇2 u("r ) = 0 (11.10.5)
usando el método de separación de variables en coordenadas esféricas. Se
trata de unas funciones de importancia capital tanto por sus aplicaciones
en fı́sica clásica como en fı́sica cuántica, donde resultan ser las funciones
propias del operador momento angular orbital. Prácticamente cualquier
cálculo en fı́sica atómica, molecular, nuclear o de partı́culas elementales
requiere la utilización de los armónicos esféricos de uno u otro modo.
Los armónicos esféricos son funciones que toman valores sobre la esfera
de radio unidad parametrizada por (θ, ϕ), y se definen del siguiente modo:
8
2l + 1 (l − m)! m
Yl (θ, ϕ) =
m
P (cos θ) eimϕ , 0 ≤ θ ≤ π, 0 ≤ ϕ < 2π.
4π (l + m)! l
(11.10.6)
Se trata de funciones que tiene parte real y parte imaginaria. Se mencio-
nan a continuación algunas de sus propiedades más importantes (las tres
primeras se proponen al lector como ejercicio).
Ylm (θ, ϕ)=(−1)m Yl−m (θ, ϕ), Ylm (π−θ, ϕ+π)=(−1)l Ylm (θ, ϕ),
1 2π 1 π
$
dϕ dθ sen θ Ylm
$ (θ, ϕ) Yl (θ, ϕ) = δl,l$ δm,m$ .
m
(11.10.7)
0 0
25
Cuando los parámetros l y m que aparece en esta ecuación diferencial son números
reales arbitrarios, las soluciones son funciones de Legendre de primera y segunda especie,
de las que ya se habló cuando se estudiaron los polinomios de Legendre.
466 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

En la esfera de radio unidad S 2 = {"x ∈ R3 / ||"x|| = 1} se considera el


conjunto de las funciones L2 (S 2 ) que son de cuadrado integrable:
1 2π 1 π
dϕ dθ sen θ |f (θ, ϕ)|2 < ∞. (11.10.8)
0 0

En L2 (S 2 ) identificaremos todas aquellas funciones que sean iguales salvo en


un conjunto de medida nula. Con esta identificación resulta que L2 (S 2 ) es
un espacio vectorial. Pero aquı́ subyacen aún más estructuras interesantes.
Si f, g ∈ L2 (S 2 ), podemos definir el siguiente producto escalar:
1 2π 1 π
.f |g/ = dϕ dθ sen θ f (θ, ϕ) g(θ, ϕ). (11.10.9)
0 0

Se demuestra que (11.10.9) es un producto escalar en L2 (S 2 ) que además


genera una estructura de espacio de Hilbert26 . Los armónicos esféricos
Ylm (θ, ϕ), l = 0, 1, 2, . . ., m = −l, −l + 1, . . . , l constituyen un conjunto
ortonormal completo en L2 (S 2 ), que satisfacen la ecuación en derivadas
parciales
/ $ % 0
1 ∂ ∂ 1 ∂2
sen θ + + l(l + 1) wlm (θ, ϕ) = 0. (11.10.10)
sen θ ∂θ ∂θ sen2 θ ∂ϕ2
De hecho, Ylm (θ, ϕ) son las soluciones regulares de esta ecuación. Algunos
armónicos esféricos de orden bajo aparecen en la tabla que sigue.

Ylm (θ, ϕ)

1
Y00 (θ, ϕ) = √
5 4π
0 3
Y1 (θ, ϕ) = cos θ

5
3
Y11 (θ, ϕ) = − sen θ eiϕ

5
5
Y20 (θ, ϕ) = (3 cos2 θ − 1)
16π
5
15
Y21 (θ, ϕ) = − sen θ cos θ eiϕ

5
15
Y22 (θ, ϕ) = sen2 θ e2iϕ
32π

26
Se dará la definición de esta estructura matemática en el capı́tulo 13.
11.10. ARMÓNICOS ESFÉRICOS 467

A continuación se muestran unas gráficas de los armónicos de orden


más bajo. La manera más habitual de representarlos es la siguiente: dado
que son funciones que toman valores sobre la esfera de radio unidad, se
dibujan asociando a cada punto (θ, ϕ) de esa esfera unidad una longitud r
en coordenadas esféricas que es justamente el valor absoluto del armónico
esférico considerado:
r = |Ylm (θ, ϕ)|. (11.10.11)
En nuestras figuras el rango de variación es en todos los casos el siguiente
θ ∈ [0, π], ϕ ∈ [0, 1.5 π], (11.10.12)
de esta manera, al no recorrer para ϕ su rango natural que es [0, 2π), se
deja visible la “zona interior” de cada armónico esférico.
Y0 0 H , L
0.2

-0.2

0.2

-0.2

-0.2
0 Y10 H , L

0.2 0.2 -0.2


0
0 0.2

-0.2
0.5

0.25

-0.25

-0.5
468 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Y1 1 H , L

0.1

-0.1 0.2

0
-0.2
0 -0.2 Y20 H , L
0.2 0.2 -0.2
0
0 0.2

-0.2

0.5

-0.5

Y2 1 H , L
0.2

-0.2

0.2

-0.2

-0.2
0

0.2
11.10. ARMÓNICOS ESFÉRICOS 469

Y2 2 H , L

0.1
0.4
0
0.2
-0.1
-0.4
.4 0
-0.2
0 -0.2
0.2 Y3 0 H , L
-0.2
0.4 -0.4 0.2 0
0.2
0
-0.2

0.5

-0.5

Y3 1 H , L
-0.2
0.2 0
0 0.2

-0.2

0.4

0.2

-0.2

-0.4
470 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

Y3 2 H , L
0.2

-0.2

0.2

-0.2

-0.2
0
Y3 3 H , L
0.2

0.1 0.4
0
0.2
-0.1
-0.4
.4 0
-0.2
0 -0.2
0
Y4 H , L 0.2
-0.2 -0.4
0.2 0 0.4
0 4
0.2
0
-0.2
2

0.5

-0.5
11.11. APÉNDICE 471

11.11 Apéndice

Vamos a estudiar la ecuación de Hermite

y !! (x) − 2xy ! (x) + 2αy(x) = 0 (11.11.1)

bajo la perspectiva del primer teorema de Frobenius. Como la ecuación


no presenta puntos singulares, buscaremos soluciones usando desarrollos en

&
serie Taylor del tipo cn xn . Llevando esta expresión a (11.11.1) obten-
n=0
emos

& ∞
&
n(n − 1) cn xn−2 + cn (2α − 2n)xn = 0, (11.11.2)
n=0 n=0

o bien

&
[(m + 2)(m + 1) cm+2 + 2(α − m) cm ]xm = 0. (11.11.3)
m=0

Estudiemos ahora los coeficientes de xn en (11.11.3), que han de ser todos


cero. El coeficiente de x0 es 2c2 + 2α c0 , de modo que c2 = −α c0 . Veamos
ahora lo que sucede con los coeficientes pares. El coeficiente de x2p−2 es

2p(2p − 1) c2p + 2 (α − 2p + 2) c2p−2 = 0, p > 1. (11.11.4)

De aquı́ obtenemos por inducción

(−1)2(α − 2p + 2) (−1)2 22 (α − 2p + 2)(α − 2p + 4)


c2p = c2p−2 = c2p−4
2p(2p − 1) 2p(2p − 1)(2p − 2)(2p − 3)
(−1)p 2p (α − 2p + 2)(α − 2p + 4) . . . α
= ··· = c0 . (11.11.5)
(2p)!

Ya tenemos todos los términos pares escritos en función de c0 . Veamos que


pasa con los términos impares. El coeficiente de x en (11.11.3) es

(−1) 2 (α − 1)
3 · 2 c3 + 2 (α − 1) c1 = 0 ⇒ c3 = c1 , (11.11.6)
3·2
mientras que el de x2p−1 viene dado por

(2p + 1) 2p c2p+1 + 2 (α − 2p + 1) c2p−1 = 0, (11.11.7)


472 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

de donde
(−1)2(α − 2p + 1)
c2p+1 = c2p−1
(2p + 1)(2p)
(−1)2 22 (α − 2p + 1)(α − 2p + 3)
= c2p−3 = · · ·
(2p + 1)(2p)(2p − 1)(2p − 2)
(−1)p 2p (α − 2p + 1)(α − 2p + 3) . . . (α − 1)
= c1 . (11.11.8)
(2p + 1)!
La solución general de la ecuación de Hermite en un entorno del origen
dependerá de los coeficientes c0 y c1 y podrá ponerse bajo la forma
&∞
(−1)k 2k (α − 2k + 2) (α − 2k + 4) . . . α 2k
y(x) = c0 x (11.11.9)
(2k)!
k=0

& (−1)k 2k (α − 2k + 1) (α − 2k + 3) . . . (α − 1)
+c1 x2k+1 .
(2k + 1)!
k=0
Vemos aparecer de manera natural dos soluciones linealmente indepen-
dientes de la ecuación de Hermite, una par y otra impar, que son:
&∞
(−1)k 2k (α − 2k + 2) (α − 2k + 4) . . . α 2k
Hα (x) =
p
x ,
(2k)!
k=0

& (−1)k 2k (α − 2k + 1) (α − 2k + 3) . . . (α − 1)
Hαi (x) = x2k+1 .
(2k + 1)!
k=0
A continuación expresaremos estas dos soluciones de una manera más com-
pacta. En la primera de ellas Hαp (x) multipliquemos y dividamos el coefi-
ciente de x2k por Γ(α/2 − k + 1), y observemos que
'α (
(α − 2k + 2) (α − 2k + 4) . . . α Γ −k+1
2
'α ( 'α ( 'α ( α
= 2k Γ −k+1 −k+1 − k + 2 ...
2 2 2 2
'α ( 'α ( α ' α (
=2 Γk
−k+2 − k + 2 ... = 2 Γ k
+ 1 . (11.11.10)
2 2 2 2
Notemos que la última expresión en (11.11.10) no depende para nada de k,
de tal manera que Hαp (x) se puede escribir como
'α (& ∞
(−1)k (2x)2k
Hαp (x) = Γ +1 3α 4. (11.11.11)
2 (2k)! Γ 2 − k + 1
k=0
11.12. PROBLEMAS 473

De la misma manera demostrarı́amos que


$ %&

1 α 1 (−1)k (2x)2k+1
Hαi (x) = Γ + 3α 4
1 . (11.11.12)
2 2 2 (2k + 1)! Γ 2 − k + 2
k=0

Supongamos ahora que α = 2r fuera un número par. Deducimos en-


tonces de (11.11.5) que c2r+2 = 0. También comprobamos con la ayuda de
(11.11.5) que si c0 != 0 todos los coeficientes pares hasta el c2r son distintos
de cero. Vemos que, en este caso, Hαp (x) se reduce a un polinomio de grado
α = 2r.
Si α = 2r − 1 fuese un número impar, de (11.11.8) obtendrı́amos una
información similar: c2r+1 = 0, y si c1 != 0, la función Hαi (x) queda reducida
a un polinomio de grado α = 2r − 1.
Hemos hallado ası́ los polinomios llamados de Hermite; vemos que existe
un polinomio de Hermite para cada valor natural de α. Para α = 0 los
coeficientes c2 , c4 , c6 , . . . son todos nulos, quedando el c0 indeterminado.
De esta manera, vemos que H0p (x) es una constante (que se suele escoger
como la unidad). Si α = 1 algo parecido sucede con H1i (x): c1 queda
indeterminado y todos los demás coeficientes son nulos. La elección c1 = 1
produce H1i (x) = x.

11.12 Problemas
1. Desarróllese en serie de polinomios de Legendre la función
)
−1, −1 < x < 0
f (x) =
1, 0<x<1

es decir, calcúlense los coeficientes al tales que



&
f (x) = al Pl (x).
l=0

2. Dada una familia de polinomios ortogonales {pn (x)}, demuéstrese que entre
dos raı́ces consecutivas de pn (x) se encuentra una raı́z de pn−1 (x).
3. Obténgase una expresión de los polinomios de Legendre en forma de integral
en el plano complejo.
474 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

4. Pruébese la relación de “ortogonalidad” de las funciones asociadas de Le-


gendre: 1 1
2 (n + m)!
Pnm (x)Prm (x)dx = δrn .
−1 2n + 1 (n − m)!
5. Desarróllense las siguientes funciones en términos de polinomios de Legen-
dre:

a) f (x) = |x|, x ∈ [−1, 1].


/
0, −1 < x < 0
b) f (x) = .
1, 0<x<1

6. Demuéstrese la relación de ortonormalización que verifican los armónicos


esféricos.
7. En mecánica cuántica se definen los llamados “operadores escalera” aso-
ciados al momento angular orbital del siguiente modo:
∂ ∂
L± = Lx ± iLy = ±e±iϕ ( ± i cotgθ ).
∂θ ∂ϕ
Pruébese que
6
L+ Ylm (θ, ϕ) = (l + m + 1)(l − m) Ylm+1 (θ, ϕ).

8. Obténgase la función generatriz de los polinomios de Hermite y, a partir de


ella, la expresión general de estos polinomios en términos de las potencias
de su argumento. Para ello, evalúese la siguiente expresión

& tn
G(t, x) = Hn (x) .
n=0
n!

9. Pruébese que Hn (0) = 0 si n es impar. Calcúlese H2n (0).


10. Los polinomios de Laguerre Ln (x) se calculan usando la fórmula
ex dn 3 n −x 4
Ln (x) = x e , n = 0, 1, 2, . . .
n! dxn
Calcúlese la transformada de Laplace de estos polinomios.
11. Demuéstrense las siguientes igualdades

H2n+1 (x) = (−1)n 22n+1 xL1/2


n (x ),
2

H2n (x) = (−1)n 22n L−1/2


n (x2 ).

Los polinomios de Hermite son, por tanto, casos particulares de los poli-
nomios generalizados de Laguerre.
11.12. PROBLEMAS 475

12. Demuéstrese la siguiente fórmula, muy útil para problemas de potenciales


gravitatorios o electrostáticos y para cálculos en mecánica cuántica:
∞& (r< )l
1
= Pl (cos θ),
|"r1 − "r2 | (r> )l+1
l=0

siendo "r1 y "r2 dos vectores arbitrarios, θ el ángulo que forman entre sı́, r>
el mayor de los módulos de "r1 y "r2 , y r< el menor de dichos módulos. Se
sugiere desarrollar en serie el primer miembro de la igualdad en función de
(r< /r> ), agrupar las potencias de (r< /r> ) y tratar luego de identificar allı́
el desarrollo de los polinomios de Legendre.
13. Pruébense las fórmulas
a) Hn% (x) = 2nHn−1 (x),
b) xHn% (x) = nHn−1
%
(x) + nHn (x),
c) Hn (x) = 2xHn−1 (x) − Hn−1
%
(x).
Esta última relación nos permite escribir los polinomios de Hermite en la
forma $ %n
d
Hn (x) = 2x − 1.
dx
14. Se demuestra que los polinomios de Legendre admiten la siguiente función
generatriz:

&
(1 − 2xz + z 2 )−1/2 = Pn (x)z n , (|z| < 1).
n=0

Utilı́cese este hecho para probar las fórmulas


a) Pn (x) = Pn+1
%
(x) − 2xPn% (x) + Pn−1
%
(x),
b) %
Pn+1 (x) − Pn−1
%
(x) = (2n + 1)Pn (x),
c) (n + 1)Pn (x) = Pn+1
%
(x) − xPn% (x),
d) (x2 − 1)Pn% (x) = nxPn (x) − nPn−1 (x).
15. Pruébense las siguientes relaciones entre los polinomios de Legendre y la
función hipergeométrica:
1−x
a) Pn (x) = 2 F1 (−n, n + 1, 1, ),
2
(−1)n (2n)! 1 1 2
b) P2n (x) = 2 F1 (−n, n + , , x ),
2 (n!)
2n 2 2 2
(−1)n (2n + 1)! 3 3
c) P2n+1 (x) = x 2 F1 (−n, n + , , x2 ).
2 (n!)
2n 2 2 2
476 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

16. Demuéstrese que



& 1
Pn (cos θ) = .
n=0
2 sen θ2

17. Compruébese que la función asociada de Legendre Pnm (x) satisface la ecua-
ción $ %
m2
(1 − x )y − 2xy + n(n + 1) −
2 %% %
y = 0.
1 − x2

18. Sean (θ1 , φ1 ) y (θ2 , φ2 ) los ángulos que caracterizan dos direcciones cua-
lesquiera en el espacio. Si α es el ángulo que forman esas dos direcciones,
demuéstrese la relación siguiente
l
&
(2l + 1)
Pl (cos α) = (−1)m Ylm (θ1 , φ1 ) Yl−m (θ2 , φ2 ),

m=−l

conocida como “fórmula de adición de los armónicos esféricos”.


19. Sea "r un vector cuyas coordenadas cartesianas son (x1 , x2 , x3 ) y cuyas co-
ordenadas esféricas son (r, θ, φ). Se introducen las cantidades

1 1
x+1 = − √ (x1 + ix2 ), x0 = x3 , x−1 = √ (x1 − ix2 ).
2 2
Compruébese que
5
1 3
Y1m (θ, φ) = xm , m = −1, 0, 1.
r 4π

20. Calcúlese la transformada de Fourier de las funciones de Hermite.


21. Compruébese que la siguiente transformada de Laplace es correcta:
n
&
1 (−1)k+n (2k)!
L{Pn (t)}(s) = .
2n k! (n − k)! s2k−n+1
k=[ n+1
2 ]

22. Demuéstrese que


∞ 5
& π
i*
e k·*
r
= i (2n + 1)
n
J 1 (kr) Pn (cos θ),
n=0
2kr n+ 2

siendo θ el ángulo formado por los vectores "k y "r. Desde un punto de vista
fı́sico este problema consiste en desarrollar una onda plana en términos de
ondas esféricas libres, cuestión que aparece al estudiar el scattering.
11.12. PROBLEMAS 477

23. Desarróllese en serie de polinomios de Legendre las funciones

a) f (x) = (1 − x)−1/2 ;
! "
1 1+x
b) f (x) = ln .
2 1−x

24. Calcúlese el wronskiano de dos soluciones linealmente independientes de la


ecuación de Legendre.
25. Hállense las soluciones de la ecuación de Legendre

(1 − x2 )y %% − 2xy % + λy = 0

mediante un desarrollo en serie alrededor del punto x = 1. En concreto,


demuéstrese que la solución regular es
λ 2−λλ
y1 = 1 + (x − 1) − (x − 1)2 + · · ·
2 2 22 2
La segunda solución linealmente independiente de la ecuación de Legendre
será del tipo
E F
y2 = y1 ln(x − 1) + (x − 1) b0 + b1 (x − 1) + b2 (x − 1)2 + · · · ;

calcúlense los dos primeros coeficientes b0 y b1 . Esta función se denota


normalmente como Qλ (x) y se denomina función de Legendre de segunda
especie (su aparición en problemas prácticos es mucho menor que la de los
polinomios de Legendre).
26. Hágase lo mismo para la ecuación de Legendre generalizada
$ %
d2 d m2
(1 − x)2 2 y(x) − 2x y(x) + λ − y(x) = 0, m ∈ Z,
dx dx 1 − x2
buscando soluciones alrededor de los puntos singulares regulares. Demués-
trese que sólo para determinados valores de λ las soluciones toman valores
finitos tanto en +1 como en −1; son las funciones asociadas de Legendre de
primera especie. La segunda solución linealmente independiente se denomi-
na función asociada de Legendre de segunda especie, Qm λ (x) .

27. Usando el teorema de Rolle27 , demuéstrese que Pn (x) tiene n ceros en el


intervalo (−1, 1).
28. A partir de la función generatriz que define los polinomios de Legendre,
demuéstres que ∀n ∈ N,

|Pn (x)| ≤ 1, x ∈ [−1, 1].


27
Michel Rolle (1652–1719), matemático francés
478 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

29. De entre todos los polinomios de grado n con coeficiente de xn igual a la


unidad, hállese aquel zn (x) para el cual la integral siguiente toma su valor
mı́nimo:
1 b
ω(x) zn2 (x) dx.
a

30. Sabiendo que

&∞
√ (−1)n
ez cos(2x z) = H2n (x)z n ,
n=0
(2n)!

&∞
1 √ (−1)n
√ ez sen (2x z) = H2n+1 (x)z n ,
z n=0
(2n + 1)!

y empleando como únicos datos adicionales la fórmula de Rodrı́gues para


los polinomios de Hermite y la ecuación diferencial que satisfacen, demostrar
que:

d
(1) H2n (x) = 4nH2n−1 (x).
dx
1 x
1
(2) H2n (t)dt = [H2n+1 (x) − H2n+1 (0)].
0 2(2n + 1)
1 x
2 2
(3) e−t Hn (t)dt = Hn−1 (0) − e−x Hn−1 (x).
0

Por último, hallar la ecuación diferencial que verifican las funciones Wn (x)
definidas como
2
Wn (x) = e−x /2 Hn (x).

31. Usando el teorema de Leibniz, pruébese que los polinomios de Laguerre


pueden obtenerse de la siguiente forma:
$ %n
d
Ln (x) = −1 xn .
dx

32. Prébese que los polinomios de Hermite admiten la siguiente representación


integral:
K 2xz−z2
n! e
Hn (x) = dz,
2πi γ z n+1
siendo γ un camino cerrado simple que encierra al origen.
11.12. PROBLEMAS 479

33. Al calcular en mecánica cuántica la energı́a del estado fundamental del


átomo de helio aparece la integral
1 1 −(r1 +r2 )
e
d"r1 d"r2 ,
|"r1 + "r2 |
donde
r1 = |"r1 |, r2 = |"r2 |, α = ángulo entre ("r1 , "r2 ),
y la integración en cada una de las variables "r1 , "r2 recorre todo el espacio
R3 . Indı́quese cómo se usarı́an los polinomios de Legendre para facilitar el
cálculo de esa integral y desarróllese este cálculo hasta donde sea posible.
34. Dada la función eax , encuéntrese su desarrollo en serie de polinomios de
Hermite y de Laguerre.

35. Encuéntrese el desarrollo de la función J0 (2 xt) en polinomios de Laguerre
Ln (x).
36. Determı́nese el desarrollo en polinomios de Legendre de la función
f (x) = x2 + 2x.

37. Un cierto polinomio de grado n se define mediante


&n
xm
un (x) = .
m=0
m!

Obténgase una función generatriz G(x, z) tal que


n
&
G(x, z) = un (x) z n .
n=0

A partir de esta función generatriz, obténganse las fórmulas de recurrencia


d
un (x) = un−1 (x), n > 0,
dx
(n + 1)un+1 (x) − (n + 1 + x)un (x) + x un−1 (x) = 0, n > 0.
Finalmente, exprése el polinomio un (x) como una integral de contorno en el
plano complejo.
38. Demuéstrese que cuando n − p ∈ N
1 ∞
(Γ(n + 1))3
xp e−x Lpm (x) Lpn (x) dx = δm,n .
0 (n − p)!
39. Usando las propiedades de ortogonalidad de los polinomios de Hermite,
evalúese la integral 1 ∞
2
Hn (x) e−x dx.
−∞
480 CAPÍTULO 11. POLINOMIOS ORTOGONALES CLÁSICOS

11.13 Bibliografı́a
1. Abramowitz, M., and Stegun, I.A., Handbook of Mathematical functions,
Dover, 1972.
2. Arfken, G., Mathematical Methods for Physicists, Academic Press, 1985.
3. Ayant, Y. y Borg, M., Fonctions Speciales à l’usage des étudiants en physi-
que, Dunod, 1971.
4. Cormack, A.M., Representation of a function by its line integrals with some
radiologycal applications, J. Appl. Phys. 34, 2722-2727 (1963).
5. Dennery, P., Krzywicki, A., Mathematics for Physicists, Harper & Row,
1969.
6. Erdélyi, A., Magnus, W., Oberhettinger, F., and Tricomi, F.G., Higher
Transcendental Functions, Vols. I-III, MacGraw-Hill, 1953.
7. Galindo, A. y Pascual, P., Mecánica Cuántica, Alhambra, 1978.
8. Hochstadt, H., Special Functions of Mathematical Physics, Holt, Rinehart
and Winston, 1966.
9. Jackson, J.D., Classical Electrodynamics, J. Wiley & Sons, 1975.
10. Lebedev, N.N., Special Functions and their Applications, Dover 1972.
11. March, N.H., Electron Density Theory of Atoms and Molecules, Academic
Press, 1992.
12. Markushevich, A.I., Theory of Functions of a Complex Variable, Chelsea,
1977.
13. Simmons, F., Ecuaciones diferenciales con aplicaciones y notas históricas,
McGraw-Hill, 1977.
14. Sneddon, I.N., Special functions of mathematical physics and chemistry,
Longman, 1980.
15. Spiegel, M.R., Matemáticas superiores para ingenieros y cientı́ficos, Mc-
Graw-Hill, 1971.
16. Watson, G. N., A Treatise on the Theory of Bessel Functions, Cambridge
University Press, 1966.
17. Wyld, H.W., A Mathematical Methods for Physics, Benjamin/Cummings
Publishing Co., 1976.
Capı́tulo 12

COMPLEMENTOS SOBRE
DISTRIBUCIONES

12.1 Introducción y resultados preliminares

En los dos últimos capı́tulos de este libro vamos a profundizar un poco


más en la definición y en algunas de las propiedades más importantes de
las distribuciones y de la transformación de Fourier, discutiendo con cierto
detenimiento algunos detalles técnicos que se han evitado al realizar un
primer estudio preliminar en capı́tulos anteriores. Aunque se produzca
un cierto solapamiento con algunos de los conceptos que ya han apare-
cido, hemos preferido realizar dos temas autocontenidos, para que el lector
más avanzado pueda estudiarlos independientemente, sin tener que recurrir
constantemente a los capı́tulos precedentes.
No definiremos el concepto de distribución de manera totalmente gene-
ral, pues, además de innecesario en la mayor parte de las aplicaciones, hace
uso de un concepto difı́cil de la teorı́a de los espacios vectoriales localmente
convexos: el lı́mite inductivo. Existe un tipo de distribución, menos general
pero más usado, llamado distribución temperada. Esta tiene la gran ventaja
conceptual de no necesitar para su comprensión otro concepto previo que
el de espacio métrico. En primer lugar revisaremos un concepto básico:
el espacio de las funciones de prueba sobre las que estarán definidas las
distribuciones. Este es el llamado espacio de Schwartz. Expondremos los
conceptos fundamentales en una dimensión para luego generalizarlos.

481
482 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Definición 1 (espacio de Schwartz): consideremos el conjunto de fun-


ciones f (x) de R en C verificando las siguientes propiedades:

(i) Las funciones f (x) son indefinidamente derivables en todos sus pun-
tos, o lo que es equivalente, son de clase C ∞ (R).

(ii) Para todos n, m = 0, 1, 2, . . . se cumple

dm
lim xn f (x) = 0. (12.1.1)
x→ ±∞ dxm

Esto significa que las funciones f (x) y sus derivadas a todos los
órdenes tienden a cero en el infinito más rápidamente que el inverso
de cualquier polinomio.

Es fácil demostrar que estas funciones forman un espacio vectorial, al cual


llamaremos espacio de Schwartz S.
En realidad el espacio de Schwartz no es sólo un espacio vectorial, sino
que es un espacio vectorial con una topologı́a. Aunque hay varias maneras,
todas ellas equivalentes, de definir la topologı́a en el espacio de Schwartz,
nosotros recurriremos a presentarla en términos de la convergencia de suce-
siones (lo cual es legı́timo por ser S un espacio métrico como veremos). Esta
es la manera más sencilla, a nuestro juicio, de entender el comportamiento
topológico de dicho espacio.
Definición 2: diremos que una sucesión {fn (x)} ⊂S converge a f (x) ∈ S
si y sólo si ∀ ε > 0, existe un número natural N , tal que si n > N , entonces
2 2
2 α dβ 2
2
pα,β (fn − f ) = sup 2x (fn − f )22 < ε, (12.1.2)
dx β
x∈R

para todos α, β = 0, 1, 2, . . . Diremos que la sucesión {fn (x)} es de Cauchy


si ∀ ε > 0 y para todos α, β = 0, 1, 2 . . ., existe un natural M , que depende
de α y β, tal que si n, m > M :

pα,β (fn − fm ) < ε.

A los números naturales N y N , que dependen de α y β, se les denota


en ocasiones como N (α, β) y M (α, β).
12.1. INTRODUCCIÓN Y RESULTADOS PRELIMINARES 483

Es interesante indicar que las cantidades pα,β (f ) definidas en (12.1.2)


constituyen diferentes normas de la función f (x). La demostración de esta
propiedad se deja al lector.
Teorema 1: la noción de convergencia que acabamos de introducir equivale
a dotar al espacio S de la siguiente métrica: ∀ f, g ∈ S

& 1 p" (f − g)
d(f, g) = , (12.1.3)
2" 1 + p" (f − g)
"=1

donde en p" (f ) hemos renombrado la familia de normas (12.1.2) de la si-


guiente manera:

p1 (f ) := p0,0 (f ), p2 (f ) := p0,1 (f ), p3 (f ) := p1,0 (f ), . . .

A d(f, g) se le llama la distancia entre f y g.


Demostración: supongamos que fn → f , en el sentido de la métrica
definida en S mediante (12.1.3). Fijemos un valor de k ∈ N de manera
arbitraria y sea ε > 0 con ε < 1/2k . Como fn → f , existe N > 0 tal que si
n > N , tenemos:

& p" (fn − f ) pk (fn − f )
2−" < ε ⇒ 2−k <ε
1 + p" (fn − f ) 1 + pk (fn − f )
"=1
⇒ pk (fn − f ) < ε 2k [1 + pk (fn − f )] ⇒ (1 − ε 2k ) pk (fn − f ) < ε 2k ,

es decir,
ε 2k
pk (fn − f ) < ,
1 − ε 2k
que puede hacerse tan pequeño como queramos, ya que 2k es un número fijo.
Obsérvese que el denominador es siempre positivo y tiende a uno cuando
ε → 0. De esta manera demostramos que, para este especı́fico valor de k,
pk (fn − f ) → 0. Esto lo podemos hacer también para cualquier otro valor
de k ∈ N. Como conclusión, tenemos entonces que:

d(fn , f ) → 0 =⇒ pk (fn − f ) → 0, k = 1, 2, 3 . . .

Veamos el recı́proco. Supongamos que ∀ k ∈ N, pk (fn −f )→0 cuando n→∞.


Fijemos ε > 0; ∃ N1 tal que si n > N1 ⇒ p1 (fn − f ) < ε; ∃ N2 tal que si
n > N2 ⇒ p2 (fn − f ) < ε; . . . ∃ Ns tal que si n > Ns ⇒ ps (fn − f ) < ε. Sea
484 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

N = máx{N1 , N2 , . . . , Ns }. Usando sencillas acotaciones, podemos escribir


para d(fn , f ):

1 p1 (fn − f ) 1 ps (fn − f ) 1 ps+1 (fn − f )


+ ··· + s + s+1 + ···
2 1 + p1 (fn − f ) 2 1 + ps (fn − f ) 2 1 + ps+1 (fn − f )
1 ε 1 ε 1 1
≤ + ··· + s + s+1 + s+2 · · ·
2 1 + p1 (fn − f ) 2 1 + ps (fn − f ) 2 2
$ % $ %
1 1 1 1 1 1 1
≤ε + ··· + s + s + 2 + 3 + ··· < ε + s.
2 2 2 2 2 2 2

Como podemos escoger ε arbitrariamente pequeño, entonces resulta que


d(fn , f ) → 0 cuando n → ∞.

Nota: observemos que las pα,β son realmente normas en S. Estas normas
las vamos a escribir de esta manera o bien como pn , según lo que nos
convenga resaltar en cada caso. Es importante señalar que la definición
anterior nos dice que fn (x) → f (x) si y sólamente si pα,β (f − fn ) → 0, para
todas las normas pα,β .

12.2 Propiedades del espacio de Schwartz S

El espacio de Schwartz S tiene interesantes propiedades, entre las que desta-


camos las que siguen.

1.– Si f (x) ∈ S, sabemos que es continua y que todas sus derivadas son
continuas en todos sus puntos.

2.– Sea α ∈ R, α > 1 y f (x) ∈ S. Es inmediato demostrar que

lim |x|α |f (x)| = 0. (12.2.1)


|x|→∞

Esto implica que existe la integral impropia


1 ∞ 1 t
|f (x)| dx = lim |f (x)| dx.
−∞ s,t→∞ −s

Puesto que f (x) es además continua, no sólo existe la integral impropia, sino
12.2. PROPIEDADES DEL ESPACIO DE SCHWARTZ S 485

que además existe la integral de Lebesgue1 y ambas integrales coinciden2 .


Además, si 1 < p < ∞, como
$ %$ %
lim |x| |f (x)| =
α p
lim |x| |f (x)|
α
lim |f (x)| p−1
= 0,
|x|→∞ |x|→∞ |x|→∞

resulta que también |f (x)|p es integrable en sentido de Lebesgue. Tomemos


ahora p = 2. Esto significa que S ⊂ L2 (R), donde L2 (R) es el espacio de
Hilbert de las funciones integrables en el sentido de Lebesgue. Se puede
demostrar además que S es denso en L2 (R) con la topologı́a que nos pro-
porciona la norma en L2 (R):
/1 ∞ 01/2
||f (x)|| := |f (x)|2 dx . (12.2.2)
−∞

La propiedad de la densidad es muy interesante, porque significa que en


todo entorno de una función de L2 (R) podemos siempre encontrar una
función de S, es decir, podemos aproximar funciones de L2 (R) por funciones
de S con tanta precisón como queramos.
3.– Se demuestra muy fácilmente que si f (x) ∈ S, entonces para todos n y
m naturales, tenemos que:
dm
xn f (x) ∈ S, Dm f (x) := f (x) ∈ S. (12.2.3)
dxm

4.– El espacio métrico S es completo. La demostración no es difı́cil. En


efecto, sea {fn (x)} una sucesión de Cauchy en S; hemos de probar que
converge a una función que está en S. Para todos p, q ∈ N (incluido el cero)
consideremos la sucesión {xp Dq fn (x)}, que es de Cauchy en el conjunto
de funciones continuas y acotadas en R con la norma del supremo3 :

||f ||∞ = sup |f (x)|. (12.2.4)


x∈R

El espacio de todas las funciones continuas y acotadas forma un espacio


métrico completo con esta norma, al cual llamaremos Cb0 (R). De esta
1
Como ya se ha comentado, este es un concepto ligeramente más general que el de
integral de Riemann. Lo usamos aquı́ simplemente para indicar que las funciones consi-
deradas están en un espacio normado, completo bajo la norma definida posteriormente
en (12.2.2): L2 (R ).
2
Véase el libro de Asplund and Bungart, p. 75.
3
La convergencia con la norma del supremo es uniforme.
486 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

manera, en Cb0 (R) la sucesión {xp Dq fn (x)} admite un lı́mite, que es una
fución gp,q (x) continua y acotada. En particular, fn (x) → g0,0 (x). Si con-
siguiéramos demostrar que gp,q (x) = xp Dq g0,0 (x), habrı́amos probado la
completitud del espacio R. Pues bien, por un lado, si fn (x) → g0,0 (x),

gp,0 (x) = lim xp fn (x) = xp { lim fn (x)} = xp g0,0 (x).


n→∞ n→∞

Sea ahora fn! (x) = Dfn (x). Sabemos que


1 x
fn (x) = fn (0) + fn! (s) ds.
0

Como fn! (x) converge uniformemente a g0,1 (x), tenemos que


1 x 1 x
lim fn! (s) ds = g0,1 (s) ds,
n→∞ 0 0

de tal manera que la ecuación de arriba, cuando n → ∞, converge uni-


formemente a 1 x
g0,0 (x) = g0,0 (0) + g0,1 (s) ds.
0
De este modo, comprobamos que Dg0,0 (x) = g0,1 (x). Por inducción vemos
que Dq g0,0 (x) = g0,q (x) y finalmente se llega también a lo que se querı́a
demostrar: xp Dq g0,0 (x) = gp,q (x).
5.– Sea F una aplicación lineal4 de S en C. Como S es un espacio métrico,
decir que F es continua en S equivale a decir que si fn → f en S, entonces
F (fn ) → F (f ) en C. Vamos a ver un importante resultado que nos per-
mite caracterizar las aplicaciones lineales y continuas de S en C, también
llamadas funcionales.
Teorema 2: sea F una aplicación lineal de S en C. F es continua si y sólo
si existen una constante H > 0 y k normas de las que definen la topologı́a,
pn1 , pn2 , . . . , pnk , tales que

∀f ∈ S, |F (f )| ≤ H {pn1 (f ) + pn2 (f ) + . . . + pnk (f )}. (12.2.5)

Demostración: vamos a admitir que se verifica la desigualdad. Supon-


gamos además que fn → f . Esto equivale a decir que pk (fn − f ) → 0,
4
Como ya sabemos, la linealidad implica que F (αf + βg) = α F (f ) + βF (g), para
todos α, β ∈ C y f, g ∈ S.
12.2. PROPIEDADES DEL ESPACIO DE SCHWARTZ S 487

∀ k = 0, 1, 2, . . . Fijemos ε > 0, entonces:

∃ S1 / ∀ n > S1 pn1 (fn − f ) < ε,


∃ S2 / ∀ n > S2 pn2 (fn − f ) < ε,
··· ··· ···
∃ Sk / ∀ n > Sk pnk (fn − f ) < ε.

Tomamos ahora M := máx{S1 , S2 , . . . , Sk }. Si n > M , entonces utilizando


la linealidad de F y la hipótesis de que se verifica la desigualdad, tenemos
que |F (fn ) − F (f )| = |F (fn − f )| ≤ H k ε, que puede hacerse tan pequeño
como se quiera. Esto prueba que, si se verifica la desigualdad, entonces
tenemos que F (fn ) → F (f ) y F es continua.
Vamos ahora a demostrar el recı́proco y supongamos que F es continua.
Razonemos mediante reducción al absurdo, suponiendo que, entre las pk ,
no existe un conjunto de normas en S verificando la desigualdad (12.2.5).
Entonces, fijado n existen n normas p1 , p2 , . . . , pn y un cierto fn ∈ S tal
que
|F (fn )| > n {p1 (fn ) + p2 (fn ) + . . . + pn (fn )}. (12.2.6)

Sea ahora
fn
gn := .
n {p1 (fn ) + p2 (fn ) + . . . + pn (fn )}
Como toda norma tiene la propiedad pk (λf ) = |λ| pk (f ) y los números
pk (f ) son reales y positivos, sucede que si k = 1, 2, . . . n

pk (fn )
pk (gn ) = .
n {p1 (fn ) + p2 (fn ) + . . . + pn (fn )}

Esto es obviamente menor o igual a 1/n. Ahora bien, para cada n existe un
fn , de tal manera que tiene sentido decir que cuando n → ∞, pk (gn ) → 0
para todas las normas pk que configuran la topologı́a de S. Obsérvese que
entonces pk (gn − 0) → 0, lo que equivale a decir que gn → 0 en la topologı́a
de S. Por la continuidad de F , se tiene que F (gn ) → 0, pero debido a la
hipótesis de absurdo planteada en (12.2.6) y a la linealidad de F :

|F (fn )|
|F (gn )| = > 1.
n {p1 (fn ) + p2 (fn ) + . . . + pn (fn )}
488 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Hemos llegado a un absurdo porque es imposible que, a la vez |F (gn )| → 0


y |F (gn )| > 1. Esta situación surge porque hemos supuesto que la de-
sigualdad (12.2.5) no se verificaba, luego ésta ha de ser correcta si F es
continua.
Observación: esta demostración no depende de la familia de normas que
se estén usando y podrı́an ser útiles otras como las qα,β definidas justo a
continuación, no sólo las pα,β definidas en (12.1.2).

6.– Existe otra manera de caracterizar la convergencia de una sucesión


{fn (x)} a f (x) en S. Definamos:
/1 ∞ 2 22 01/2
2 α β 2
qα,β (f ) := 2x D f (x)2 dx . (12.2.7)
−∞

Obsérvese que qα,β (f ) no es otra cosa que la norma en el espacio L2 (R)


de la función xα Dβ f (x). Se puede demostrar fácilmente que qα,β (f ) para
cada α y β cero o natural es una norma. También se pueden renombrar qn ,
al igual que hicimos con las pn a partir de las pα,β en la sección anterior.
La otra manera de caracterizar la convergencia de las sucesiones en S
está contenida en el siguiente resultado:
Teorema 3: la sucesión de funciones {fn (x)} ⊂S converge, con la topolo-
gı́a en S, a la función f (x) ∈ S si y solamente si

lim qα,β (f − fn ) = 0, ∀ α, β = 0, 1, 2, . . . (12.2.8)


n→∞

Demostración: supongamos, en primer lugar, que fn → f en S. Entonces


tenemos que pα,β (fn − f ) → 0, ∀ α, β = 0, 1, 2, . . . Sea ahora
!1 ∞ 2 22 (1 + x2 )2 "1/2
2 α β 2
qα,β (f − fn ) = 2x D (f (x) − fn (x))2 dx
−∞ (1 + x2 )2
!1 ∞ 2 22 "1/2
2 α 2 1
= 2x (1 + x ) D (f (x) − fn (x))2
2 β
dx
−∞ (1 + x2 )2
!1 ∞ ! 2 22 " "1/2
2 α 2 dx
≤ sup 2x (1 + x ) D (f (x) − fn (x))2
2 β
−∞ x∈R (1 + x2 )2
2 2 ! 1 ∞ "1/2
2 α 2 dx
= sup 2x (1 + x ) D (f (x) − fn (x))2
2 β
.
−∞ (1 + x )
2 2
x∈R
12.2. PROPIEDADES DEL ESPACIO DE SCHWARTZ S 489

La última integral es convergente, real y positiva, llamémosla K 2 . Entonces,


! "
qα,β (f − fn ) ≤ K sup |x D (fn (x) − f (x))| + sup |x
α β
D (fn (x) − f (x))|
α+2 β
x∈R x∈R

= K [pα,β (fn (x) − f (x)) + pα+2,β (fn (x) − f (x))] → 0


cuando n → ∞. De esta manera hemos probado que si fn → f , entonces
para todo α y β, tenemos que qα,β (f − fn ) → 0.
Veamos el recı́proco. Supongamos ahora que para todo α y β, tenemos
que qα,β (f − fn ) → 0. Para preparar nuestro razonamiento, tengamos en
cuenta que si f (x) ∈ S
1 x
f (x) = f ! (s) ds,
−∞

por lo tanto
21 x 2 1 x
2 2
2
sup |f (x)| ≤ sup 2 ! 2
f (s) ds2 ≤ sup |f ! (s)| ds
x∈R x∈R −∞ x∈R −∞
1 ∞ 1 ∞
dx
= |f ! (x)| dx = (1 + x2 ) |f ! (x)| . (12.2.9)
−∞ −∞ 1 + x2
Esta integral es el producto escalar .g|h/ de las funciones
1
g(x) := (1 + x2 ) |f ! (x)| y h(x) := ,
1 + x2
ambas de cuadrado integrable, como es fácil demostrar. Podemos aplicar a
este producto escalar la desigualdad de Schwarz5 para obtener:
!1 ∞ "1/2 +1 ∞ 2 2 ,1/2
2 1 22
.g|h/ ≤ ||g|| ||h|| = 2 !
|(1 + x )f (x)| dx
2 2 2 dx .
2 22
−∞ −∞ 1 + x
(12.2.10)
Observemos que el último factor es justamente K. Uniendo las fórmulas
(12.1.2), (12.2.9) y (12.2.10), finalmente obtenemos:
/1 ∞ 01/2
p0,0 (f ) ≤ K |(1 + x2 ) f ! (x)|2 dx .
−∞
5
Esta desigualdad se supone conocida, no obstante la revisaremos en el capı́tulo si-
guiente, en el párrafo que sirve como recordatorio también al concepto de producto escalar
en espacios vectoriales complejos. No confundir a L. Schwartz, matemático francés, con
H. Schwarz, matemático alemán.
490 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Sean ahora a y b dos números reales y positivos. Como

0 ≤ (a − b)2 = a2 + b2 − 2ab,

de aquı́ 2ab ≤ a2 + b2 . Entonces

(a + b)2 = a2 + b2 + 2ab ≤ 2(a2 + b2 ).

Apliquemos esta desigualdad eligiendo a = |f ! (x)| y b = |xf ! (x)|. Elevando


al cuadrado la expresión anterior, resulta que
/1 ∞ 1 ∞ 0
[p0,0 (f )] ≤ 4K
2 2
|D f (x)| dx +
2
|x D f (x)| dx .
2
−∞ −∞

Pero como
pα,β (f ) = sup |xα Dβ f | = p0,0 |xα Dβ f |,
x∈R

y además
- .
|D[x D f ]| =|αx
α β 2 α−1
D f +x D
β α β+1 2
f | ≤2 |αx α−1
D f | +|x D
β 2 α β+1 2
f| ,

deducimos inmediatamente que


!1 ∞
[pα,β (f − fn )]2 ≤ 8K 2 |α xα−1 Dβ (fn − f )|2 dx
−∞
1 ∞ 1 ∞
+ α
|x D β+1
(fn − f )| dx +
2
|αxα Dβ (fn − f )|2 dx
−∞ −∞
1 ∞ "
+ |xα+1
D β+1
(fn − f )| dx 2
−∞
T
= 8K 2 α2 [ qα−1,β (fn − f )]2 + [qα,β+1 (fn − f )]2
U
+α2 [qα,β (fn − f )]2 + [qα+1,β+1 (fn − f )]2 ,

que tiende a cero cuando n → ∞. Esto prueba el recı́proco.


7.– Existe otra interesante caracterización de la topologı́a en S. Vamos a
considerar los siguientes operadores en S, es decir, aplicaciones lineales de
S en sı́ mismo:
$ % $ %
1 d † 1 d
A := √ x+ , A := √ x− . (12.2.11)
2 dx 2 dx
12.3. DISTRIBUCIONES TEMPERADAS 491

Definamos ahora el operador N := A† A+ 12 . Tenemos el siguiente resultado,


que no vamos a demostrar este resultado, aún cuando su prueba no es más
difı́cil que la de los dos teoremas anteriores:
Teorema 4: fn (x) → f (x) en S si y sólo si

pk (fn − f ) := ||N k (fn − f )|| → 0, k = 0, 1, 2, . . . , (12.2.12)

cuando n → ∞. La norma que aparece en esta última ecuación es la


definida en L2 (R) por la fórmula (12.2.2).
Es interesante hacer notar que los operadores A, A† y N son, respecti-
vamente, los operadores aniquilación, creación y número correspondientes
al oscilador armónico en una dimensión en la teorı́a cuántica ordinaria.

12.3 Distribuciones temperadas

Hasta ahora nos hemos concentrado en establecer una serie de propiedades


del espacio S. Hemos pensado que discutir de forma extensiva las propieda-
des del espacio de Schwartz resultaba imprescindible para el lector intere-
sado en profundizar en los detalles de la teorı́a de distribuciones. Debido
a la propia naturaleza de las distribuciones temperadas que, como ya diji-
mos antes, son las únicas que vamos a discutir, el conocimiento a fondo del
espacio S puede ser muy útil para comprender la noción de distribución
temperada. De hecho, S es el espacio de funciones de prueba sobre las que
se aplican las distribuciones en la forma que especificaremos a continuación.
Nuestro próximo paso va a ser precisamente el de definir este tipo de
distribuciones que hemos comentado, ası́ como ofrecer un buen número de
ejemplos de distribuciones temperadas que ilustren y aclaren adecuada-
mente la definición.
Definición 3: se llama distribución temperada (en una dimensión) a toda
aplicación lineal y continua (funcional) de S en C.
Ejemplo 1: sea f (x) una función compleja de variable real, integrable
y distinta de cero6 . Sea g(x) ∈ S. Asociada a f , definamos la siguiente
6
Se entenderá siempre que es distinta de cero salvo quizá en un conjunto de medida
nula. Si fuera distinta de cero solamente en un conjunto de medida nula, la considera-
rı́amos igual a la función idénticamente nula.
492 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

aplicación de S en C:
1 ∞
Ff1 (g) := f ∗ (x) g(x) dx, (12.3.1)
−∞

donde la estrella denota conjugación compleja. Como g(x) está acotada


existe la integral7 . Es obvio que Ff1 es una aplicación lineal de S en C.
Para ver que es una distribución temperada tenemos que demostrar su
continuidad con respecto a las topologı́as en S y en C. Para ello vamos a
usar la desigualdad (12.2.5):
21 ∞ 2 1 ∞
2 2
2
|Ff (g)| = 2
1
f (x) g(x) dx22 ≤

|f ∗ (x) g(x)| dx
−∞ −∞
1 ∞
≤ sup |g(x)| |f (x)| dx = K p0,0 (g). (12.3.2)
x∈R −∞

Lo que prueba, conjuntamente con el hecho de que es lineal, la continuidad


de Ff1 . Luego Ff1 es una distribución temperada.
Ejemplo 2: supongamos ahora que f (x) es una función compleja de va-
riable real, de cuadrado integrable y distinta de cero, y sea g(x) ∈ S.
Definamos 1 ∞
Ff2 (g) := f ∗ (x) g(x) dx. (12.3.3)
−∞

Claramente Ff2 es una aplicación lineal de S en C. Además, como toda


función en S es de cuadrado integrable, Ff2 (g) coincide con el producto
escalar8 .f |g/ en L2 (R) de las funciones f y g. Para ver que Ff2 es continua,
notemos, en primer lugar, que la desigualdad de Schwarz nos dice que

|Ff2 (g)| ≤ |.f |g/| ≤ ||f || ||g||. (12.3.4)

Pero
1 1

1

||g|| =
2
|g(x)| dx =
2
|(1 + x2 ) g(x)|2 dx
−∞ −∞ (1 + x2 )2
1 ∞
dx
≤ sup |(1 + x ) g(x)|
2 2
. (12.3.5)
x∈R −∞ (1 + x2 )2
7
Esta integral existe en el sentido de Lebesgue. Si además f (x) fuera una función
continua, tendrı́amos garantizada la existencia de la integral impropia en el sentido de
Riemann.
8
De hecho esta es la razón por la cual, tanto en el Ejemplo 1 como en éste, las
definiciones que se dan incluyen el complejo conjugado de la función f .
12.3. DISTRIBUCIONES TEMPERADAS 493

A la última integral la venı́amos llamando K 2 . Por lo tanto, la última lı́nea


de la fórmula anterior es menor o igual que
! "2 ! "
3 4 2
K sup |(1 + x ) g(x)| ≤ K sup |g(x)| + |x g(x)|
2 2 2 2
x∈R x∈R
! "2
= K 2 sup |g(x)| + sup |x2 g(x)| = K 2 [p0,0 (g) + p2,0 (g)]2 .
x∈R x∈R

Usando este resultado, junto con (12.2.5) y (12.3.4), se llega a la siguiente


desigualdad

|Ff2 (g)| ≤ ||f || K {p0,0 (g) + p2,0 (g)}, ∀ g(x) ∈ S,

lo que demuestra que Ff2 es continua, pues ||f || es un número positivo (y


distinto de cero) e independiente de g. Es importante subrayar que este
resultado indica que toda función f de cuadrado integrable genera una
distribución temperada. Podemos entonces identificar f con la correspon-
diente distribución. Si llamamos S × o S ! al conjunto de las distribuciones
temperadas, tenemos que L2 (R) ⊂ S × . Por otro lado, es fácil demostrar
que S × es un espacio vectorial.
Nota. Sea X un espacio vectorial topológico (sobre el cuerpo complejo),
que es un espacio vectorial con una topologı́a compatible, en cierto sentido,
con la estructura de espacio vectorial9 . El espacio de todas las aplicaciones
lineales y continuas de X en C forma un espacio vectorial, que suele de-
notarse como X × (o incluso X ! ) y que se denomina espacio dual de X.

Ejemplo 3: sea g ∈ S y sea x0 ∈ R. Definamos

F x0 (g) := g(x0 ); ∀ g ∈ S. (12.3.6)

Obviamente F x0 es lineal de S en C. Probemos su continuidad de nuevo


con la relación (12.2.5).

|F x0 (g)| = |g(x0 )| ≤ sup |g(x)| = p0,0 (g).


x∈R

Esta es una distribución muy conocida, aunque no lo parezca por la defini-


ción. Se trata de la delta de Dirac δ(x − x0 ). Obviamente, si x0 = 0,
9
Esto significa que las aplicaciones de X × X y C × X en X, definidas respectivamente
como (x, y) → x + y y (λ, x) → λx, son continuas.
494 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

tenemos la delta de Dirac centrada en el origen, δ(x). Esta distribución


asocia cada g(x) ∈ S a su valor en el cero, g(0). Notemos que la acción
de la delta de Dirac en cero y en x0 sobre g ∈ S se escribe habitualmente
como:
1 ∞ 1 ∞
F 0 (g)= g(x) δ(x) dx = g(0), F x0 (g)= g(x) δ(x − x0 ) dx = g(x0 ).
−∞ −∞

Ejemplo 4: la distribución temperada valor principal de Cauchy suele


denotarse como P( x1 ). Se define como:
$ % 1
1 g(x) dx
P (g) = lim , ∀ g ∈ S. (12.3.7)
x ε→0 |x|≥ε x
Lo primero que tenemos que comprobar, aún antes de ver si esto es o no
una distribución temperada, es si (12.3.7) es una buena definición de algún
objeto, pues no solamente debemos verificar que la integral existe, sino
que el lı́mite existe y es finito, cualquiera que sea la función g(x) ∈ S.
Analicemos, en primer lugar la buena definición de la integral:
1 1 ∞ 1 ε 1 ∞
g(x) dx g(x) dx g(x) dx g(x) − g(−x)
= + = dx.
|x|≥ε x ε x −∞ x ε x
(12.3.8)
La primera igualdad es obvia. La segunda es consecuencia del teorema del
cambio de variable, cuando cambiamos x por −x. Ahora debemos pregun-
tarnos si las integrales en (12.3.8) convergen. Como g(x)/x es continua en
los intervalos (−∞, ε] y [ε, ∞), el único problema que podrı́amos tener para
averiguar la convergencia de estas integrales, estarı́a en los puntos del in-
finito (∞ ó −∞). Pero observemos que por las propiedades de las funciones
de S, si α es un número real mayor que uno, la existencia de lı́mite
g(x)
lim xα = 0, α > 1, (12.3.9)
|x|→0 x
junto con la continuidad de la función g(x), nos garantizan la existencia de
la integral. Por otro lado, como
g(x) − g(−x)
lim = 2g ! (0),
x→0 x
definiendo el valor de la función (g(x) − g(−x))/x en cero como 2g ! (0),
resulta que esta función es continua en el intervalo [0, ε] y, por lo tanto,
12.3. DISTRIBUCIONES TEMPERADAS 495

integrable. De esta manera, garantizamos la existencia de lı́mite y podemos


escribir nuestra distribución como:
$ % 1 ∞
1 g(x) − g(−x)
P (g) = dx. (12.3.10)
x 0 x
Una vez que hemos comprobado que nuestra aplicación está bien definida,
vamos a demostrar que es realmente una distribución temperada. De lo
que no cabe duda es de su linealidad. Como hacemos de manera habi-
tual tratándose de una aplicación lineal, vamos a demostrar su continuidad
haciendo uso de la desigualdad (12.2.5). Para ello, notemos primero que
1 x
g ! (s) ds = g(x) − g(−x)
−x

De aquı́:
2 2 2 1 x 2 1 x
21
2 {g(x) − g(−x)}2 = 2 1 1
2 2 2
! 2
g (s) ds2 ≤ |g ! (s)| ds
2x 2 2x |x| −x
−x

2|x|
≤ sup {|g ! (s)|} = 2 p0,1 (g).
s∈R |x|

Una vez demostrada la desigualdad anterior, vamos a utilizarla para de-


mostrar la continuidad de nuestra aplicación:
2 $ % 2 21 1 1 ∞ 2
2P 1 (g)2 ≤ 2
2 2 2 g(x) − g(−x) g(x) − g(−x) 22
2 2 2 dx + dx2
x 0 x 1 x
1 12 2 21 ∞ 2
2 g(x) − g(−x) 2 2 g(x) − g(−x) 22
= 2 2 2
2 x 2 dx + 2 x
dx2
0 1
1 1 21 ∞ 2
2 dx 22
≤2 p0,1 (g) dx + 22 x{g(x) − g(−x)} 2 2
0 1 x
1 ∞ 1 ∞
dx dx
≤ 2 p0,1 (g) + |x g(x)| 2 + | − x g(−x)| 2
1 x 1 x
1 ∞
dx
≤ 2 p0,1 (g) + 2 p1,0 (g) = 2 {p0,1 (g) + p1,0 (g)}.
1 x2
En el último paso hemos utilizado que la integral es igual a uno. La desigual-
dad requerida queda pues probada y tenemos una distribución temperada.
496 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Ejemplo 5: la función de Heaviside se puede definir del siguiente modo10 :


/
0, si − ∞ < x < 0
H(x) := (12.3.11)
1, si 0 ≤ x < ∞.
La función de Heaviside es también conocida como función escalón y con
su ayuda vamos a definir una distribución temperada FH de la siguiente
manera:
1 ∞ 1 ∞
FH (g) = H(x) g(x) dx = g(x) dx, ∀ g ∈ S. (12.3.12)
−∞ 0

FH es claramente una aplicación lineal de S en C. Queda por demostrar


su continuidad, cosa que haremos mediante el recurso habitual:
1 ∞ 1 ∞ 1 ∞
dx
|FH (g)| ≤ |g(x)| dx ≤ |g(x)| dx ≤ |(1 + x2 ) g(x)|
0 −∞ −∞ 1 + x2
1 ∞
dx
≤ sup |(1 + x2 ) g(x)| = π [p0,0 (g) + p2,0 (g)] ,
x∈R −∞ 1 + x2
o también 1 ∞
|FH (g) ≤ |g(x)| dx = q0,0 (g).
−∞

Usualmente, cuando construimos una distribución asociada a una fun-


ción f (x) mediante la fórmula (12.3.1), independientemente que f sea inte-
grable o no, identificaremos la distribución y la función. Ası́, por ejemplo,
a esta última distribución la llamaremos indistintamente función de Heavi-
side o distribución de Heaviside. Una situación ilustrativa de lo que vamos
diciendo aparece en el siguiente ejemplo.
Ejemplo 6: sea pn (x) un polinomio de orden n con coeficientes reales.
Entonces 1 ∞
Fpn (g) = pn (x) g(x) dx, ∀ g ∈ S, (12.3.13)
−∞
es la distribución temperada asociada al polinomio pn (x). Para demostrar
que (12.3.13) es una distribución temperada vamos a aplicar la técnica
habitual en tres pasos. Primero notemos que Fpn es lineal. Sea ahora la
distribución asociada a una constante α
1 ∞ 1 ∞
Fα (g) := α g(x) dx ⇒ |Fα (g)| ≤| α| |g(x)| dx ≤ |α| q0,0 (g),
−∞ −∞
10
Recuérdese que a veces puede usarse una definición equivalente con un valor diferente
en el punto de discontinuidad, tal como se hizo en la ecuación (2.5.5) del Capı́tulo 2.
12.3. DISTRIBUCIONES TEMPERADAS 497

y a un monomio
1 ∞
Fxn (g) := xn g(x) dx ⇒ |Fxn (g)| ≤ qn,0 (g).
−∞

Finalmente, Fpn es la combinación lineal de distribuciones de las dos for-


mas anteriores. Como cualquier combinación lineal de aplicaciones lineales
y continuas lo es también, queda probado que la aplicación asociada al
polinomio pn (x) es una distribución temperada.
Ejemplo 7: definamos las distribuciones asociadas a los siguientes objetos
1
, (12.3.14)
x − x0 ± i0
donde x0 es un número real fijo, de la siguiente manera:
1 ∞
g(x)
F± (g) := lim dx, ε > 0, ∀ g ∈ S. (12.3.15)
ε→0 −∞ x − x0 ± iε

Necesitamos demostrar que están ambas bien definidas. La integral cierta-


mente existe para todo real ε, pues
2 22
2
2 1 2
2 1 1
2 x − x0 ± iε 2 = |x − x0 |2 + ε2 ≤ ε2 ,

y tenemos el producto de una función integrable, g(x), por una acotada.


Pero esto no nos garantiza la existencia del lı́mite. Para demostrar que el
lı́mite existe y por lo tanto que (12.3.15) está bien definido, escribamos
1 ∞ 1 ∞
g(x) x − x0 ∓ iε
= g(x) dx. (12.3.16)
−∞ |x − x0 | + ε
2 2
−∞ x − x0 ± iε

Obviamente, esta integral se puede poner como suma de dos. Para estu-
diar la convergencia cuando ε → 0 de la primera de ellas, consideremos la
siguiente integral:
1 $ %
x − x0 1
− g(x) dx.
|x−x0 |≥δ |x − x0 | + ε
2 2 x − x0

Sobre esta integral tenemos que calcular un lı́mite reiterado, el cual es


1 $ %
x − x0 1
lim lim − g(x) dx. (12.3.17)
ε→0 δ→0 |x−x |≥δ |x − x0 |2 + ε2 x − x0
0
498 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

No hay nada que nos asegure que aquı́ podamos invertir el orden de los
lı́mites, ası́ que tendremos que hacer primero el de δ y luego el de ε. Pero el
de la δ ya lo hemos hecho, en realidad en el Ejemplo 4. Si operamos como
lo hicimos allá, utilizando el cambio w = x − x0 y luego deshaciéndolo, la
ecuación (12.3.17) quedará
1 ∞$ %
(x − x0 )2 g(x) − g(2x0 − x)
lim − 1 dx. (12.3.18)
ε→0 x
0
(x − x0 )2 + ε2 x − x0

La función h(x), definida como

g(x) − g(2x0 − x)
h(x) := ,
x − x0
es integrable en el intervalo [x0 , ∞), tal y como probamos en el Ejem-
plo 4. Además la función entre paréntesis en (12.3.18) tiene, en el intervalo
[x0 , ∞), un valor mı́nimo −1 y uno máximo, cero. Por consiguiente, la
función bajo el signo integral en (12.3.18) está acotada por el módulo de
h(x).
Podemos estar tentados en introducir sin más el lı́mite dentro del signo
integral en (12.3.18). Si ası́ procediéramos, obtendrı́amos el valor cero
para el lı́mite y, por lo tanto, para la integral. Pero este tipo de procedi-
mientos formales no son siempre correctos, por lo que hemos que tener un
criterio para decidir, al menos en determinadas circunstancias, cuando es
posible intercambiar el orden del lı́mite y la integral. Posiblemente el más
poderoso de todos ellos sea el teorema de la convergencia mayorada
de Lebesgue que, para lo que necesitamos, se podrı́a enuciar como sigue.

Teorema 5: sea fε (x) una familia de funciones integrables11 con las si-
guientes condiciones:

1.– Existe una función integrable G(x) tal que |fε (x)| ≤| G(x)|, ∀ε.

2.– Existe el lı́mite lim fε (x) = f (x) en el sentido puntual, es decir este
ε→0
lı́mite existe para cada x, en el sentido ordinario de los números com-
plejos12 .
11
La integrabilidad que debe usarse aquı́ es la de Lebesgue.
12
En realidad para casi todo x, es decir, puede que este lı́mite no exista para una
colección de x formando un conjunto de medida de Lebesgue nula.
12.3. DISTRIBUCIONES TEMPERADAS 499

Entonces la función lı́mite f (x) es integrable y además


1 b 1 b 1 b
lim fε (x) dx = lim fε (x) dx = f (x) dx,
ε→0 a a ε→0 a

donde a y b pueden ser números reales o bien a = −∞ y b = ∞.


Observemos que el teorema lo que nos da son condiciones suficientes
para que se puedan intercambiar el lı́mite y la integral.
Como aplicación vamos a utilizar las siguientes funciones:
$ %
(x − x0 )2
fε (x) = − 1 h(x),
(x − x0 )2 + ε2

que presentan las siguientes propiedades:


1.– Están acotadas por |h(x)|, es decir, |fε (x)| ≤| h(x)|.
2.– Convergen a cero cuando ε → 0: lim fε (x) = 0.
ε→0

Ambas propiedades son obvias y nos permiten, gracias al teorema de


la convergencia mayorada de Lebesgue, introducir el lı́mite dentro de la
integral, para finalmente concluir que
1 ∞ $ %
x − x0 1
lim g(x) dx = P (g), ∀ g ∈ S. (12.3.19)
ε→0 −∞ |x − x0 |2 + ε2 x − x0

La distribución P(1/(x − x0 )) se define exactamente igual que la P(1/x),


en donde hemos reemplazado x por x − x0 . Notemos que dos aplicaciones
en un conjunto X son iguales cuando su acción en cada elemento de X nos
da el mismo resultado. Identificando cada distribución con la función que
las define, se obtiene que
$ %
x − x0 1
lim =P .
ε→0 |x − x0 |2 + ε2 x − x0

Consideremos ahora el lı́mite de la segunda integral en (12.3.16). Más


adelante probaremos que
1 ∞ 1 ∞
ε
lim g(x) dx = πg(x 0 ) = π δ(x − x0 ) g(x) dx,
ε→0 −∞ |x − x0 |2 + ε2 −∞
(12.3.20)
500 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

lo cual significa que


ε
lim = πδ(x − x0 ). (12.3.21)
ε→0 |x − x0 |2 + ε2

Tras este resultado podemos afirmar que las distribuciones asociadas a


los sı́mbolos (x − x0 ± i0)−1 , verifican la siguiente igualdad:
$ %
1 1
=P ∓ iπδ(x − x0 ). (12.3.22)
x − x0 ± i0 x − x0

Como cualquier combinación lineal de aplicaciones lineales y continuas de


un espacio vectorial (sobre el cuerpo complejo) topológico en C es también
lineal y continua13 , de aquı́ resulta que (x − x0 ± i0)−1 es también una
distribución.
Ejemplo 8: vamos a definir una nueva distribución temperada de la si-
guiente manera:
1
Flog (g) := lim log |x| g(x) dx, ∀ g ∈ S. (12.3.23)
ε→0 |x|≥ε

Lo primero que hay que averiguar es si Flog (g) está bien definida. Procede-
mos como en el caso anterior:
1 1 ∞ 1 −ε
log |x| g(x) dx = log |x| g(x) dx + log |x| g(x) dx;
|x|≥ε ε −∞

la última integral se transforma mediante el cambio de variable x → −x en


1 ∞
log |x| g(−x) dx.
ε

De esta manera, tenemos que


1 ∞
Flog (g) = lim log |x| {g(x) + g(−x)} dx, ε > 0.
ε→0 ε

No cabe duda que la integral está bien definida, pues la función bajo el
signo integral es continua, está acotada y tiende rápidamente a cero en el
13
Es ésta una propiedad bastante general, cuya demostración para funciones lineales y
continuas de S en C se propone al lector.
12.3. DISTRIBUCIONES TEMPERADAS 501

infinito. Otra cosa es que exista el lı́mite. Para verlo, vamos a integrar por
partes:
1 ∞ 2∞
2
(log x) {g(x) + g(−x)} dx = (x log x − x) {g(x) + g(−x)}22
ε ε
1 ∞
− (x log x − x) {g ! (x) − g ! (−x)} dx.
ε

Pero g(x) y g(−x) se anulan en el infinito. Además lim x log x = 0. De


x→0
todo esto se infiere que

lim (x log x − x) {g(x) + g(−x)}|∞


ε = 0.
ε→0

Finalmente queda
1 ∞
Flog (g) = − (x log x − x) {g ! (x) − g ! (−x)} dx.
0

Esta integral existe ya que la función bajo el signo integral es continua


y está acotada en [0, ∞) y además tiende a cero muy rápidamente en el
infinito.
El siguiente paso es comprobar que es una distribución temperada.
Como no hay duda del carácter lineal de Flog , procedamos a demostrar
que se verifica la desigualdad (12.2.5):
21 ∞ 2
2 2
2
|Flog (g)| = 2 (x log x − x){g (x) − g (−x)} dx22
! !
0
1 1
≤ |x log x| |g ! (x) − g ! (−x)| dx
0
1 ∞ 1 ∞
! !
+ |x log x| g (x) − g (−x)| dx + x |g ! (x) − g ! (−x)| dx.
1 0

En el intervalo [0, 1] la función x log x es continua (pruébese). Por lo tanto,


está acotada. Llamemos M a esta cota. Entonces:
1 1 /1 1 1 1 0
! ! ! !
|x log x| |g (x) − g (−x)| dx ≤ M |g (x)| dx + |g (−x)| dx
0
1 0∞ 0

≤ 2M |g ! (x)| dx.
−∞
502 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

En el intervalo [1, ∞), x log x ≤ x2 , luego


1 ∞ 1 ∞
! !
|x log x| |g (x) − g (−x)| dx ≤ x2 |g ! (x) − g ! (−x)| dx
1 1
1 ∞
≤2 |x2 g ! (x)| dx.
−∞

Por tanto,
1 ∞ 1 ∞
! !
x |g (x) − g (−x)| dx ≤ 2 |x g ! (x)| dx.
0 −∞

Estos últimos resultados nos dicen que

|Flog (g)| ≤ 2{M q0,1 (g) + q2,1 (g) + q1,1 (g)}.

Poniendo H = máx{2M, 2}, queda finalmente:

|Flog (g)| ≤ H{q0,1 (g) + q2,1 (g) + q1,1 (g)},

para todo g ∈ S, con lo que nuestra hipótesis queda probada.


Ejemplo 9: denotaremos a la rama principal del logaritmo como

log−π z = log |z| + i arg z, −π < arg z ≤ π. (12.3.24)

La siguiente distribución que vamos a definir es


1 ∞
ε
Flog (g) := log−π (x + iε) g(x) dx, ∀ g ∈ S. (12.3.25)
−∞

Por la definición dada a la rama principal del logaritmo tenemos que:


6 'ε(
log−π (x + iε) = log x2 + ε2 + i arctan . (12.3.26)
x
Vemos que la integral (12.3.25) puede ponerse como suma de dos. La
primera es:
1 ∞ 6 1 ∞ 6
log x + ε g(x) dx =
2 2 log x2 + ε2 {g(x) + g(−x)} dx
−∞ 0
1 1 6
= log x2 + ε2 {g(x) + g(−x)} dx
0
1 ∞ 6
+ log x2 + ε2 {g(x) + g(−x)} dx. (12.3.27)
1
12.3. DISTRIBUCIONES TEMPERADAS 503

En el intervalo [0, 1], la función log x2 + ε2 es continua.
√ En el intervalo
[1, ∞) podemos acotarla mediante un polinomio: log x2 + ε2 ≤ x2 + ε2 .
Ambas cosas conjuntamente implican que la primera integral en (12.3.27)
es convergente y que
21 1 6 2
2 2
2 log x2 + ε2 {g(x) + g(−x)} dx22
2
0
1 1 6
≤ 2 sup |g(x)| log x2 + ε2 dx = C1 sup |g(x)| = C1 p0,0 (g),
x∈R 0 x∈R

y también
21 ∞ 6 2 1 ∞
2 2
2 log x + ε {g(x) + g(−x)} dx22 ≤
2 2 (x2 + ε2 ) |g(x) + g(−x)| dx
2
1 1
1 2 2
∞2 4
x 2 + 2ε2 x2
+ ε4 2 2 |g(x) + g(−x)| dx
= 2 2
1 x +ε
2 2
! "1 ∞
dx
≤ 2 sup |x g(x)| + 2ε sup |x g(x)| + ε sup |g(x)|
4 2 2 4
x∈R x∈R x∈R −∞ x2 + ε2

= [p4,0 (g) + 2ε2 p2,0 (g) + ε4 p0,0 (g)].
ε
ε (g) existe un término de la forma
Finalmente recordemos que en Flog
1 ∞'
ε(
i arctan g(x) dx.
−∞ x
Teniendo en cuenta que el arco tangente está acotado en módulo por π,
proponemos al lector que complete la demostración de la continuidad de
ε (su linealidad es trivial).
Flog
Ejemplo 10: como veremos más adelante, nuestro último ejemplo es el
lı́mite del anterior cuando ε tiende a cero. Sea
1 ∞
0
Flog (g) = log−π (x + i0) g(x) dx, ∀ g ∈ S. (12.3.28)
−∞

Lo primero que hemos de establecer es el significado del logaritmo que


aparece bajo el signo integral. Definámoslo como
)
log x, si x > 0,
log−π (x + i0) := lim log−π (x + iε) = (12.3.29)
ε→0 log |x| + iπ, si x < 0.
504 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

La conexión de esta definición con la ecuación (12.3.26) del ejemplo prece-


dente es sencilla (basta efectuar el lı́mite con un poco de cuidado) y se verá
con más detalle en el Ejemplo 18. Utilizando esta expresión llegamos a
1 ∞ 1 ∞
0
Flog (g) = log |x| g(x) dx + iπ g(−x) dx, (12.3.30)
−∞ 0

que es una distribución, como el lector podrá comprobar como ejercicio.

12.4 Derivación de distribuciones

Aunque hasta aquı́ solamente hayamos mencionado las distribuciones tem-


peradas, el método de derivación de las distribuciones es totalmente general
por lo que, aunque seguiremos trabajando sólo con las temperadas, hablare-
mos únicamente de distribuciones.
Adelantemos que toda distribución es indefinidamente derivable. Ade-
más, hemos visto que hay distribuciones Ff que se definen mediante una
función f (x), integrable o no, usando (12.3.1). En este caso identificamos
la distribución Ff con la función f (x). Cabrı́a preguntarse si siendo f (x)
derivable su derivada f ! (x) nos define una distribución y, en caso afirmativo,
si ésta es o no la derivada de Ff . Vamos a tratar de responder a esta
interesante pregunta en lo que sigue, pero ya adelantamos que la respuesta
es afirmativa.
Antes de continuar vamos a presentar una notación alternativa al resul-
tado de aplicar una distribución F a una función g(x) ∈ S. Escribamos:

F (g) = .F |g/.

Esta notación no es caprichosa y está inspirada en el Ejemplo 2. Pero


también nos sugiere que la aplicación de una distribución a una función
en S es como una generalización del producto escalar, lo cual es cierto.
También nos va a ayudar a comprender mejor la definición de derivada de
una distribución. Por otro lado, como ya hemos dicho, toda distribución es
indefinidamente derivable. Por lo tanto, definamos de una vez la derivada
de order arbitrario de F .
Definición 4: sea F una distribución temperada14 . Se define su derivada
14
Esta definición es válida para cualquier tipo de distribución
12.4. DERIVACIÓN DE DISTRIBUCIONES 505

n-ésima mediante la fórmula:


X n 2 Y X 2 n Y
d F 22 2d g
n 2 g = (−1) F 22 n ,
n
∀ g ∈ S. (12.4.1)
dx dx

Como las funciones g(x) ∈ S son indefinidamente derivables, la defini-


ción tiene sentido. Pero aún hemos de demostrar que la derivada n-ésima
de una distribución temperada es también una distribución temperada.
Para ello utilicemos la notación abreviada Dn := dn /(dxn ) y, teniendo en
cuenta que F es una distribución temperada y que, por lo tanto, satisface
la desigualdad (12.2.5), escribamos:

|.Dn F |g/| = |.F |Dn g/|


≤ K [pα1 ,β1 (Dn g) + pα2 ,β2 (Dn g) + . . . + pαk ,βk (Dn g)]
= K [pα1 ,β1 +n (g) + pα2 ,β2 +n (g) + . . . + pαk ,βk +n (g)] . (12.4.2)

La última igualdad es debida a la definición de las normas pα,β . Como Dn F


es evidentemente una aplicación lineal de S en C, (12.2.5) y (12.4.2) nos
demuestran su continuidad. Presentemos a continuación algunos ejemplos
de derivadas de distribuciones.
Ejemplo 11: calculemos la derivada de la distribución de Heaviside.
1 ∞
.DFH |g(x)/ = −.FH |g ! (x)/ = − H(x) g ! (x) dx
−∞
1 ∞ 2∞
2
=− g (x) dx = −g(x)22 = g(0).
!
(12.4.3)
0 0

Recordando ahora que el resultado de aplicar la delta de Dirac a g(x) ∈ S


da como resultado el valor g(0) de la función en cero, concluimos que la
derivada de la distribución de Heaviside es la delta. Escribiremos
dH(x)
DH(x) = = H ! (x) = δ(x). (12.4.4)
dx

Ejemplo 12: vamos a evaluar las derivadas sucesivas de la delta de Dirac.


Si F es ahora la delta de Dirac en cero:

.DF 0 |g(x)/ = −.F 0 |g ! (x)/ = −g ! (0).


506 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

La derivada primera de la delta de Dirac es una distribución que envı́a cada


g(x) ∈ S en menos el valor de su derivada en el punto cero. Análogamente

.D2 F 0 |g(x)/ = .F 0 |g !! (x)/ = g !! (0), (12.4.5)


2
dn g(x) 2
2
.Dn F 0 |g(x)/ = (−1)n .F 0 |Dn g(x)/ = (−1)n 2 . (12.4.6)
dxn x=0

Ejemplo 13: veamos cuales son las derivadas sucesivas de la distribución


asociada a un polinomio de orden n, pn (x)
1 ∞
.DFpn |g(x)/ = −.Fpn |g ! (x)/ = − pn (x) g ! (x) dx.
−∞

Integrando por partes,


1 ∞ 2∞ 1 ∞
2
! 2
pn (x) g (x) dx = pn (x)g(x)2 − p!n (x) g(x) dx. (12.4.7)
−∞ −∞ −∞

Como las funciones en S tienden a cero más rápidamente que el inverso


de cualquier polinomio, el primer término del miembro de la derecha en
(12.4.7) se anula. De aquı́ concluimos que
1 ∞
.DFpn |g(x)/ = p!n (x) g(x) dx.
−∞

Vemos que la derivada de nuestra distribución es la distribución asociada a


la derivada p!n (x) del polinomio pn (x). Aplicando el método de inducción
podemos comprobar que esto es cierto para todas las derivadas de esta
distribución, es decir:
1 ∞/ k 0
d pn (x)
.D Fpn |g(x)/ =
k
g(x) dx.
−∞ dxk

Si k = 0, 1, . . . , n la función asociada a Dk Fpn es un polinomio de orden


n − k, que vale cero cuando k > n.
Nota. Lo que hemos hecho con los polinomios puede repetirse con cualquier
otra función derivable que pueda ser identificable con una distribución tem-
perada mediante la fórmula (12.3.1). De esta manera ponemos de mani-
fiesto que, si la derivada de una tal función existe15 e identificamos esta
15
En todos sus puntos.
12.4. DERIVACIÓN DE DISTRIBUCIONES 507

función con su distribución, su derivada en el sentido de las distribuciones


coincide con la derivada en el sentido usual.
Ejemplo 14: consideremos ahora la distribución asociada al logaritmo
de |x|, que corresponde a (12.3.23) o a la primera integral en (12.3.30), y
derivémosla:
1
.DFlog |g(x)/ = − lim log |x| g ! (x) dx
ε→0 |x|≥ε
1 ∞
=− log |x| {g ! (x) + g ! (−x)} dx
0
2∞ 1 ∞
2 g(x) − g(−x)
= − log |x| {g(x) − g(−x)}22 + dx
0 0 x
$ %
1
=P (g).
x
La última igualdad proviene de que el primer término en la fila anterior se
anula (¿por qué?). La derivada de nuestra distribución es la distribución
valor principal de Cauchy de 1/x.
Ejemplo 15: derivemos la distribución Flog
ε , definida en (12.3.25)

1 ∞
2∞
2
ε
.DFlog |g(x)/ =− log−π (x + iε) g (x) dx = − log−π (x + iε) g(x)22
!
−∞ −∞
1 ∞ 1 ∞
1 1
+ g(x) dx = 0 + g(x) dx. (12.4.8)
−∞ x + iε −∞ x + iε

Se llega a lo mismo usando (12.3.26). Vemos que la distribución asociada


a la función log−π (x + iε) es la distribución asocida a la función (x + iε)−1 ,
lo cual está en completo acuerdo con la Nota anterior.
Ejemplo 16: derivemos la distribución asociada al objeto log−π (x + i0),
definida en (12.3.28)–(12.3.30)
1 ∞
0
.DFlog |g(x)/ = − log−π (x + i0) g ! (x) dx
−∞
1 ∞ 1 0
− log |x| g ! (x) dx − iπ g ! (x) dx
−∞ −∞
$ %
1
=P (g) − iπg(0).
x
508 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Resumiendo lo anterior, teniendo presente también (12.3.22):


$ %
d log−π (x + i0) 1 1
=P − iπδ(x) = . (12.4.9)
dx x x + i0

Esta relación ha de interpretarse siempre en el sentido de las distribuciones.

12.5 Lı́mite de sucesiones en S ×

Ya comentamos que el espacio S × de las distribuciones temperadas es un es-


pacio vectorial. A este espacio es usual dotarle de una topologı́a no métrica
llamada la topologı́a débil. Esta topologı́a no está definida mediante nor-
mas, sino mediante un tipo de objeto llamado seminorma cuya definición
es como la de una norma, pero reemplazando la condición “||x|| = 0 si y
sólo si x = 0” por la siguiente: el valor de la seminorma en cero es cero,
pudiendo haber vectores diferntes de cero con seminorma cero.
En general, en un espacio no métrico la topologı́a no está determinada
por la convergencia de sucesiones en dicho espacio. Necesitamos un con-
cepto más general que el de sucesión. Pero las sucesiones siguen existiendo
como casos particulares. Y una cuestión importante es definir el concepto
de sucesión convergente en S × .

Definición 5: diremos que una sucesión de distribuciones temperadas {Fn }


converge a una distribución temperada F , y escribiremos Fn → F , si y sólo
si
.Fn |g(x)/ = Fn (g) → F (g) = .F |g(x)/, ∀ g(x) ∈ S.

La convergencia de la sucesión {Fn (g)}, para cada g ∈ S, tiene sentido como


convergencia de una sucesión de números complejos. Vemos que para que
Fn → F tiene que converger un conjunto infinito de sucesiones de números
complejos, una por cada g ∈ S.
Como en las secciones anteriores, vamos a ilustrar la definición que
acabamos de ofrecer con algún ejemplo.

Ejemplo 17: consideremos las siguientes funciones:

n
ϕn (x) := δ 1 1 (x), (12.5.1)
2 [− n , n ]
12.5. LÍMITE DE SUCESIONES EN S × 509

donde  E F
 0 si x∈/ − n1 , n1 ,
δ[− 1 , 1 ] (x) = E F (12.5.2)
n n  1 si x ∈ − n1 , n1 ,
es la llamada función caracterı́stica del conjunto [−1/n, 1/n]. Es muy fácil
comprobar que estas funciones son integrables, por lo que definen distribu-
ciones según estudiamos en el Ejemplo 1:
1 ∞ 1 1/n
n
Fn (g) := ϕn (x) g(x) dx = g(x) dx, ∀ g ∈ S. (12.5.3)
−∞ 2 −1/n

Demostremos que ∀ g ∈ S, las sucesiones {Fn (g)} son de Cauchy y obten-


gamos el lı́mite. Para ello sea G(x) una primitiva de g(x), esto es, una
función derivable tal que G! (x) = g(x). Entonces
1 ! $ % $ %"
n 1/n
n 1 1
g(x) dx = G −G −
2 −1/n 2 n n
1 G(1/n) − G(−1/n)
= → G! (0).
2 1/n

Por tanto la sucesión Fn (g) es convergente y converge a G! (0) = g(0).


Recordando la definición de la distribución delta de Dirac, concluimos que
Fn → δ(x).
Este ejemplo se puede generalizar más. Vamos a indicar un criterio por
el cual una sucesión de distribuciones converge a la delta de Dirac.
Definición 6: sea {ϕn (x)} una sucesión de funciones definidas en un
cierto abierto A ⊂ R (ó Rn ). Diremos que ϕn (x) → 0 uniformemente
en compactos de A si y sólo si para todo compacto K ⊂ A se verifica que
supx∈K |ϕn (x)| → 0 cuando n → 0.
Teorema 6: sea {ϕn (x)} una sucesión de funciones16 acotadas en R tales
que sean positivas (ϕn (x) ≥ 0) y además sean integrables con
1 ∞
ϕn (x) dx = c,
−∞
16
Naturalmente hay que exigir que estas funciones sean medibles en el sentido de
Lebesgue, lo cual se consigue si, por ejemplo, son continuas con un número finito de
discontinuidades de primera especie (saltos finitos).
510 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

siendo c una constante. Si además ϕn (x) → 0 en subconjuntos compactos


del abierto R − {x0 }, las distribuciones asociadas a las ϕn (x) tenderán a la
distribución c δ(x − x0 ) (o dicho de otra manera, ϕn (x) → c δ(x − x0 ) en el
sentido de las distribuciones).
No demostraremos aquı́ este resultado.

Consideremos ahora una sucesión de números reales positivos tales que


εn → 0 y sean las funciones

εn
ϕn (x) = . (12.5.4)
(x − x0 )2 + ε2n

Sea K un compacto en R (conjunto cerrado y acotado) tal que x0 ∈ / K.


Sabemos que en todo espacio métrico, entre un conjunto cerrado y un con-
junto compacto que sean disjuntos existe siempre una distancia no nula17 .
Como {x0 } es un cerrado en R y x0 ∈/ K, d(x0 , K) = h > 0. En K

2 2
2
2 εn 2
2 ≤ εn sup 1 εn
sup 2 2 + ε2 2
≤ 2 → 0, si n → ∞.
x∈K (x − x0 ) n x∈K (x − x0 )2 h

Por lo tanto, la sucesión de funciones {ϕn (x)} converge a cero en compactos


de R que no contienen a x0 . Además, para todo valor de n:

1 2

εn (x − x0 ) 22∞
dx = arctan = π.
−∞ (x − x0 )2 + ε2n εn 2−∞

Aplicando ahora el teorema podemos concluir que ϕn (x) → π δ(x − x0 ).


Como corolario se sugiere al lector la revisión del Ejemplo 7.

17
Sean A y B dos subconjuntos de un espacio métrico. Definiremos distancia entre A
y B como
d(A, B) := inf d(x, y), x ∈ A, y ∈ B.

Lógicamente, si A y B tienen una intersección no vacı́a, su distancia es cero.


12.5. LÍMITE DE SUCESIONES EN S × 511

-2 -1 1 2

Figura 12.1: Sucesión de funciones ϕn (x) que


tienden a la delta de Dirac.

Antes de finalizar este ejemplo, queremos hacer notar como han de ser
las funciones ϕn (x) en general. A medida que avancemos en la sucesión, los
valores de ϕn (x) lejos de x0 irán tendiendo a cero, mientras que ϕn (x0 ) de-
berá tender hacia infinito, pues la integral de las ϕn (x) debe de mantenerse
constante para todo valor de n (véase la Figura 12.1). Cabe pensar que en
el lı́mite obtenemos un objeto que vale cero en todos los puntos, salvo en
el x0 que vale infinito. Este objeto no puede ser una función ya que, si lo
fuera, serı́a idénticamente nula, salvo en un punto, que es un conjunto de
medida nula. Entonces el producto de una tal función por cualquier otra
es la función nula, salvo en un punto, y su integral serı́a cero y no el valor
de la función en x0 . De aquı́ que δ(x − x0 ) no pueda ser considerada una
función en el sentido ordinario.

Ejemplo 18: demostremos a continuación que, en el sentido de las dis-


tribuciones, si εn → 0,

lim log−π (x + iεn ) = log−π (x + i0). (12.5.5)


n→∞

Para demostrarlo, escribamos ∀ g ∈ S


1 ∞
log−π (x + iεn ) g(x) dx = I1 + iI2 , (12.5.6)
−∞
512 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

donde hemos tenido en cuenta (12.3.26), de modo que


1 ∞ 1 ∞;
6 εn <
I1 = log x + εn g(x) dx, I2 =
2 2 arctan g(x) dx.
−∞ −∞ x

Observemos ahora lo siguiente: si x2 + ε2n < 1, entonces


6
| log x2 + ε2n | < | log x|,

pues el logaritmo es negativo y la función logaritmo es estrictamente cre-


ciente en el intervalo (0, ∞); si x2 + ε2n ≥ 1, entonces
6
log x2 + ε2n < (x2 + ε2n ).

Tomando n suficientemente avanzado, εn < 1 y si x ∈ (0, ∞), teniendo en


cuenta las dos acotaciones precedentes finalmente queda
6
| log x2 + ε2n | < | log x| + (x2 + 1).

Ahora bien,
1 ∞ 6
I1 = log x2 + ε2n {g(x) + g(−x)} dx.
0

De aquı́ obtenemos:
1 ∞
|I1 | ≤ {| log x| + (x2 + 1)} |g(x) + g(−x)| dx.
0

Por el análisis efectuado en el Ejemplo 8, la función

G(x) = {| log x| + (x2 + 1)} |g(x) + g(−x)|

es integrable en el sentido de Lebesgue en el intervalo (0, ∞) y, cualquiera


que sea n, es mayor o igual que
6
| log x2 + ε2n {g(x) + g(−x)}|.

De esta manera, podemos aplicar el teorema de la convergencia mayorada


de Lebesgue (teorema 5) para concluir que
1 ∞ 6 1 ∞ 6
lim g(x) log x + εn dx = lim
2 2 [g(x) + g(−x)] log x2 + ε2n dx
n→∞ −∞ n→∞ 0
1 ∞ 1 ∞
= [g(x) + g(−x)] log x dx = g(x) log |x| dx.
0 −∞
12.5. LÍMITE DE SUCESIONES EN S × 513

Vamos a ver lo que pasa con I2 . La función arctg (εn /x) g(x) está aco-
tada en módulo por π |g(x)|, que es una función integrable. Podemos aplicar
de nuevo el teorema de la convergencia mayorada de Lebesgue, para obtener
1 ; 1

εn < 0
lim I2 = lim arctan g(x) dx = π g(x) dx,
n→∞ −∞ n→∞ x −∞

pues es sencillo probar que


/
εn 0 si x > 0,
lim arctan =
n→∞ x π si x < 0.

Resumiendo, podemos decir que hemos obtenido la siguiente fórmula:


1 ∞ 1 ∞ 1 0
lim log−π (x + iεn ) g(x) dx = log |x| g(x) dx + iπ g(x) dx
n→∞ −∞ −∞ −∞
1 ∞
= log−π (x + i0) g(x) dx, (12.5.7)
−∞

lo que prueba (12.5.5).


Observación. Podemos preguntarnos qué sucederı́a si ε fuese una variable
continua. Aunque S × no es un espacio métrico, si F (ε) es una familia de dis-
tribuciones dependientes de un parámetro, diremos que limε→ε0 F (ε) = F ,
si para toda función g(x) ∈ S, tenemos que limε→ε0 .F (ε)|g(x)/ = .F |g(x)/
(este ε0 podrı́a ser infinito, como sucede en el ejemplo que sigue a conti-
nuación). En el caso que nos ocupa ahora obviamente podemos escribir, de
acuerdo con lo que acabamos de decir:

lim log−π (x + iε) = log−π (x + i0). (12.5.8)


ε→0

Ejemplo 19: consideremos ahora la siguiente familia de distribuciones:


1 ∞
sen λx
F [λ] (g) := g(x) dx, ∀ g(x) ∈ S. (12.5.9)
−∞ x

La integral está bien definida pues la función x−1 sen λ x está acotada18 .
Para todo λ, F [λ] (g) es una aplicación continua. Demostrar la continuidad
18
Aplicando la regla de l’Hôpital, vemos que vale la función toma el valor λ en el origen.
514 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

es fácil. Si llamamos ψ(x) := sen λx g(x), donde g(x) es una función arbi-
traria de S, teniendo presente el Ejemplo 4, vemos fácilmente que
2 2 2 $1% 2 2 $ %
1
2
2 [λ] 2 22 2 2 2
2F (g)2 = 2P [sen λx g(x)]22 = 22P ψ(x)22 ≤ 2 {p1,0 (ψ) + p0,1 (ψ)}
x x
/ 0
!
= 2 sup |x sen λx g(x)| + sup |λ cos λx g(x)| + sup |sen λx g (x)|
x∈R x∈R x∈R
/ 0
!
≤ 2 sup |xg(x)| + |λ| sup |g(x)| + sup |g (x)|
x∈R x∈R x∈R

≤ 2K {p1,0 (g) + p0,0 (g) + p0,1 (g)} ,

donde K = máx{|λ|, 1}. Esta cadena de desigualdades nos muestran que,


∀ λ ∈ R, F [λ] es una distribución.
El siguiente paso es demostrar la existencia del limλ→∞ F [λ] (g), ∀ g ∈ S.
Comencemos escribiendo la siguiente igualdad:
1 ∞ 1 ∞ 1 ∞ / 0
sen λx sen λx g(x) − g(0)
g(x) dx = g(0) dx+ sen λx dx.
−∞ x −∞ x −∞ x
(12.5.10)
La primera integral es la tı́pica integral impropia que puede resolverse
19

usando las técnicas derivadas del teorema de los resı́duos en variable com-
pleja:
1 ∞ 1 ∞ 1 ∞
sen λx sen λx sen w
dx = d(λx) = dw = π. (12.5.11)
−∞ x −∞ λx −∞ w

Definamos ahora la función


g(x) − g(0)
ϕ(x) = (12.5.12)
x
y probemos que es indefinidamente derivable en todos los puntos (para ello
basta ver que esta función y todas sus derivadas son continuas en el origen,
puesto que es obvio que lo son en cualquier otro punto). Demostremos
su continuidad y la de su derivada primera (para las derivadas sucesivas
bastará aplicar el método de inducción). Para probar la continuidad en
19
Este es el tı́pico ejemplo de una función cuya integral impropia en el sentido de
Riemann existe, pero que no es integrable en el sentido de Lebesgue.
12.5. LÍMITE DE SUCESIONES EN S × 515

cero, basta aplicar la regla de l’Hôpital en la ecuación (12.5.12) para concluir


que ϕ(0) = g ! (0). Para la primera derivada utilizaremos una técnica similar:
g(x)−g(0)
− ϕ(0) g(x) − g(0) − xϕ(0)
ϕ! (0) = lim x
= lim .
x→0 x x→0 x2
Aplicando ahora la regla de l’Hôpital dos veces, este lı́mite es igual a

g ! (x) − ϕ(0) g !! (x) 1


lim = lim = g !! (0).
x→0 2x x→0 2 2
Procediendo de esta manera vamos viendo que los lı́mites de las derivadas
sucesivas de ϕ(x) en cero existen.
Sea ahora {λn } una sucesión de números reales que tiende a infinito
(λn → ∞). Queremos demostrar que
1 ∞
lim sen λn x ϕ(x) dx = 0.
n→∞ −∞

Para ello resolvamos la integral por partes:


1 ∞ 2∞ 1 ∞
cos λn x 2
2 cos λn x !
sen λn x ϕ(x) dx = − ϕ(x)2 + ϕ (x) dx.
−∞ λn −∞ −∞ λn
(12.5.13)
La función ϕ(x) se anula en el infinito con lo que el primer término de la
derecha se hace cero. Démonos cuenta que

xg ! (x) − g(x) + g(0)


ϕ! (x) =
x2
es una función integrable, porque es continua en todos los puntos de R y
decrece rápidamente en el infinito. Además, cuando λn > 1, esta función
interviene en la siguiente acotación:
2 2
2 cos λn x ! 2 1
2 2 ! !
2 λn ϕ (x)2 ≤ |λn | |ϕ (x)| ≤| ϕ (x)|.

Aplicando ahora el teorema de la convergencia mayorada de Lebesgue, es-


cribamos
1 ∞ 1 ∞ / 0
cos λn x ! cos λn x
lim ϕ (x) dx = lim ϕ! (x) dx = 0.
n→∞ −∞ λn −∞ n→∞ λ n
516 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Como la sucesión {λn } es arbitraria la igualdad anterior implica que


1 ∞
cos λx !
lim ϕ (x) dx = 0. (12.5.14)
λ→∞ −∞ λ

Uniendo (12.5.10) con (12.5.11) , (12.5.13) y (12.5.14), deducimos que


1 ∞
sen λx
lim g(x) dx = π g(0),
λ→∞ −∞ λ

lo que implica que


lim F [λ] = π δ(x). (12.5.15)
λ→∞

12.6 Distribuciones en dos o más dimensiones

El espacio de Schwartz en dos dimensiones está formado por aquellas fun-


ciones indefinidamente derivables g(x, y) de R2 a C tales que
2 2
2 m n ∂ p+q 2
lim 22x y p q
g(x, y)22 = 0, ∀ m, n, p, q ∈ N, (12.6.1)
||(x,y)||→0 ∂x ∂y
6
donde, naturalmente, ||(x, y)|| ≡ ||"x || = x2 + y 2 . Análogamente a lo que
sucede en el caso unidimensional, las normas que definen la topologı́a son:
2 2
2 m n ∂ p+q 2
p,q (g)
pm,n 2
= sup 2x y g(x, y) 2 = 0. (12.6.2)
∂xp ∂y q 2
x∈R 2
*

Al espacio de funciones g(x, y) que verifican esta propiedad (espacio de


Schwartz en dos dimensiones) se le denota como S(R2 ). Tiene las mismas
propiedades que caracterizan a S. En particular:

1.– S(R2 ) es un espacio vectorial.

2.– Las normas (12.6.2) definidas en S(R2 ) lo proveen de una topologı́a


métrica exactamente igual que en el caso de S.

3.– Si g ∈ S(R2 ), todas sus derivadas parciales de cualquier orden también


están en S(R2 ), al igual que las funciones de la forma xn y m g(x, y), con
n, m = 0, 1, 2, . . .
12.6. DISTRIBUCIONES EN DOS O MÁS DIMENSIONES 517

4.– Todas las funciones de S(R2 ) son de cuadrado integrable, lo que quiere
decir que la integral20
1 ∞ 1 ∞
dx dy |g(x, y)|2
−∞ −∞
existe y es finita. El conjunto de funciones medibles que verifican esta
propiedad forma un espacio de Hilbert21 que llamamos L2 (R2 ). Lo que
acabamos de decir significa que S(R2 ) ⊂ L2 (R2 ); pero además se puede
demostrar que S(R2 ) es denso en L2 (R2 ).
5.– El conjunto de los funcionales lineales y continuos en S(R2 ) (aplica-
ciones lineales y continuas de este espacio en C) forma un espacio vectorial
denotado como S × (R2 ), llamado el espacio dual de S(R2 ). Este es el espacio
de las distribuciones temperadas en dos dimensiones. Estas distribuciones
tienen las mismas propiedades que las distribuciones en S × . Un ejemplo
tı́pico es el de la delta de Dirac bidimensional F *x0 = δ(x − x0 ) δ(y − y0 ), la
cual se define como
F *x0 (g) = g(x0 , y0 ), ∀ g ∈ S(R2 ),
y habitualmente se escribe en forma integral de la siguiente manera:
1 ∞ 1 ∞
F (g) =
*
x0
dx dy g(x, y) δ(x − x0 ) δ(y − y0 ) = g(x0 , y0 ).
−∞ −∞
La demostración que esto es una distribución se basa en una generalización
inmediata de lo que hicimos en una dimensión.
Nota. No debemos de confundir la distribución δ(x − x0 ) δ(y − y0 ) con el
cuadrado de la delta δ 2 (x − x0 ), objeto que no existe en este contexto. En
general, el producto de dos distribuciones puede no estar definido. Exis-
ten, no obstante, algunos casos particulares en los cuales se puede definir
el producto de distribuciones. Por ejemplo, cuando estas distribuciones
estén representadas por funciones integrables cuyo producto sea también
integrable.
Para definir las derivadas parciales de una distribución bidimensional F
utilizamos la siguiente fórmula:
X 2 Y X 2 n Y
∂n 2 2 ∂ g(x, y)
2g(x, y) = (−1) 2
2 ∂xk ∂y n−k , ∀ g(x, y) ∈ S(R ).
n 2
F F
∂xk ∂y n−k 2
20
En el sentido de Lebesgue.
21
Un espacio de Hilbert es un espacio de Banach cuya norma proviene de un producto
escalar. Para más detalles, véase el capı́tulo siguiente.
518 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Por la forma en la que las definimos, vemos que estas derivadas parciales
siempre existen.
La generalización de las ideas que acabamos de exponer en R2 a RN es
inmediata. De esta manera podemos definir distribuciones temperadas en
N dimensiones.
Ejemplo 20: sea F1/|*x| la distribución tridimensional asociada a 1/|"x|, es
decir 1
g("x) 3
F1/|*x| (g) = d "x, ∀ g("x) ∈ S(R3 ). (12.6.3)
R 3 |"
x |
Veamos que se trata de una verdadera distribución. Escribamos:
1 1 1
g("x) 3 g("x) 3 g("x) 3
d "x = d "x + d "x.
R 3 |"
x| x|≥ε |"
|* x| x|≤ε |"
|* x|

Vamos a utilizar aquı́ coordendas esféricas. Ası́ llamemos 3 = |"x|. La


primera de estas dos integrales se puede acotar de la siguiente manera:
1 1 1
|g("x)| 3 1 1
d "x ≤ |g("x)| d "x ≤
3
|g("x)| d3 "x.
x|≥ε |"
|* x| ε 1≥ε ε R3
La segunda integral es
1
g("x) 32 sen θ d3 dθ dϕ,
1≤ε

la cual está acotada en módulo por


1
ε 2
|g("x)| d3 dθ dϕ ≤ sup |g("x)| 2π 2 ε3 .
1≤ε x∈R 3
*

La topologı́a de S(R3 ) está dada por la siguiente familia de normas:


2 2
2 m n k ∂ p+q+r 2
pp,q,r (g) = sup 22x y z
m,n,k
p q r
g(x, y, z)22 , ∀ g("x) ∈ S(R3 ),
x∈R 3
* ∂x ∂y ∂z

con lo que la segunda integral es menor o igual que 2π 2 ε3 p0,0,0


0,0,0 (g). En
cuanto a la primera integral, podemos proponer la siguiente acotación:
21 2 1 1
2 2
2 3 2
2 3 g("x) d "x2 ≤ 3 |g("x)| d "x ≤ 3 |g("x)| 3 d3 sen θ dθ dϕ
3 2
R R R
1
1 + 32
≤ |g("x)| 32 d3 sen θ dθ dϕ,
R3 1 + 32
12.6. DISTRIBUCIONES EN DOS O MÁS DIMENSIONES 519

Ahora hemos de utilizar las siguientes desigualdades:


(32 + 34 )|g("x)| ≤| 32 g("x)| + |34 g("x)|
≤ |x2 g("x)| + |y 2 g("x)| + |z 2 g("x)| + |x4 g("x)| + |y 4 g("x)|
+|z 4 g("x)| + 2|x2 y 2 g("x)| + 2|x2 z 2 g("x)| + 2|y 2 z 2 g("x)|
≤ p2,0,0 0,2,0 0,0,2 4,0,0 0,4,0
0,0,0 (g) + p0,0,0 (g) + p0,0,0 (g) + p0,0,0 (g) + p0,0,0 (g)

+p0,0,4 2,2,0 2,0,2 0,2,2


0,0,0 (g) + 2 p0,0,0 (g) + 2 p0,0,0 (g) + 2 p0,0,0 (g) =: p(g).
Finalmente, obtenemos que
21 2 /1 0
2 2 d3
2 2
2 3 g("x) d "x2 ≤ sen θ dθ dϕ
3
p(g).
R R3 1 + 32
Como el valor de la integral es una constante, y teniendo en cuenta la linea-
lidad de F1/|*x| , vemos fácilmente que F1/|*x| es realmente una distribución.

Ejemplo 21: en realidad, vamos a seguir hablando de la distribución an-


terior. Vamos ahora a aplicarle el operador laplaciano para ver que el
resultado es, salvo una constante trivial, la delta de Dirac tridimensional.
Nuestro objetivo es demostrar que
1
∇2 = −4π δ("x), (12.6.4)
|"x|
en el sentido de las distribuciones. La demostración de este resultado es un
poco larga y conviene realizarla con cuidado. Para comenzar, veamos un
resultado previo.
Lema 1: sea ε > 1 y sean w " y "z dos puntos de la bola cerrada de R3
centrada en cero y de radio ε. Sea ϕ("x) una función de R3 → R, indefinida-
mente diferenciable. Entonces existe una constante K, independiente de ε,
y tal que
" − ϕ("z )| ≤ K ε.
|ϕ(w)
Demostración: como la bola cerrada es convexa22 , el segmento uniendo w "
y "z está en ella. Entonces por el teorema del valor medio en n dimensiones,
&3 $ %
∂ϕ
" − ϕ("z ) =
ϕ(w) (wi − z i ); θ ∈ [0, 1].
∂xi w+θ* z −w)
(* *
i=1
22 n
Un subconjunto de R se llama convexo cuando el segmento de recta que une dos
cualesquiera de sus puntos está en dicho conjunto.
520 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Tomando módulos
3 2
&
2
2 ∂ϕ 2
" − ϕ("z )| ≤
|ϕ(w) 2 2 |wi − z i |.
2 ∂xi 2
i=1 w+θ
* z −w)
(* *

Como ϕ("x) es indefinidamente diferenciable, sus derivadas parciales serán


funciones continuas y, por lo tanto, estarán acotadas, por una constante
M , en la bola cerrada que estamos considerando. Puesto que el radio de la
misma es justamente ε, |wi − z i | ≤| wi | + |z i | < 2ε y

" − ϕ("z )| ≤ 6M ε = Kε
|ϕ(w)

donde, ciertamente, K es independiente de ε, y el lema está probado.


Volvamos sobre nuestro problema original. Por la definición de las
derivadas parciales de una distribución multidimensional, tenemos que
1 1
∇2 g("x) 3 ∇2 g("x) 3
.∇ F1/*x |g/ = .F1/*x |∇ g/ =
2 2
d "x = lim d "x.
R3 |"x| 1≥εε→0 3
(12.6.5)
Antes de proseguir necesitamos recordar un resultado que seguramente será
conocido de los cursos de análisis matemático como segunda identidad de
Green o teorema de Green23 , que no es ni más ni menos que un corolario del
teorema de la divergencia de Gauss, que se suele usar con cierta frecuencia.

Teorema 7 (de Green): dadas dos funciones escalares suficientemente


regulares u("x ), v("x ), se verifica que
1 1
2 2 3 "
(u∇ v − v∇ u) d "x = (u∇v − v∇u) · d2 S (12.6.6)
V S

donde S es la superficie que limita el volumen V y d2 S" = "n d2 S, siendo "n


un vector unitario perpendicular en cada punto de la superficie S y dirigido
hacia el exterior del volumen V .
Aplicamos ahora el teorema de Green para resolver la última integral
planteada en (12.6.5), sin considerar aún el paso al lı́mite, y teniendo en
cuenta que el volumen de integración es todo el espacio, salvo una esfera
23
George Green (1793–1841), matemático inglés.
12.6. DISTRIBUCIONES EN DOS O MÁS DIMENSIONES 521

de radio ε, de modo que el vector "n es radial, pero está dirigido hacia el
origen24 :
1 1 $ % 1
∇2 g("x) 3 1 1 ∂g("x) 2
d "x = ∇2 g("x) d3 "x − d S
1≥ε 3 1≥ε 3 1=ε 3 ∂3
1 / 0
∂ 1
+ g("x) d2 S (12.6.7)
1=ε ∂3 3
Recordemos que el laplaciano en coordenadas esféricas es
/ 2 0
1 ∂2 1 ∂ 1 ∂ 1 ∂2
∇ =
2
3+ 2 + + , (12.6.8)
3 ∂32 3 ∂θ2 tan θ ∂θ sen 2 θ ∂ϕ2
que aplicado a 3−1 , nos da
$ %
1 1 ∂2
∇ 2
= 1 = 0. (12.6.9)
3 3 ∂32
Por lo tanto, la primera integral en (12.6.7) se anula. Como g("x) ∈ S(R3 ),
la función ∂g/∂3 está acotada por una constante H en todo R3 y la segunda
integral da
1 2 2 1
1 2 ∂g 2 2
2 2d S≤H H 4πε2
d 2
S = → 0, si ε → 0.
ε 1=ε 2 ∂3 2 ε 1=ε ε
En cuanto a la tercera integral, podemos poner,
1 ! " !1 1 "
g("x) 2 1
− 2 d S=− 2 [g("x) − g(0)] d S +
2 2
g(0) d S .
1=ε 3 ε 1=ε 1=ε
(12.6.10)
A causa del Lema, la primera integral del miembro de la derecha en la
ecuación precedente está acotada en módulo por
1
1
Kε d2 S = 4πεK → 0.
ε2 1=ε
En cuanto a la segunda integral en la ecuación (12.6.10), es inmediata
y vale −4πg(0). De todas estas consideraciones, obtenemos el resultado
anunciado en (12.6.4).
24
Es decir +n = −+ 2/2, mientras que al calcular el gradiente en (12.6.6) la componente
radial, que es la única relevante, va en la dirección de 2
+/2. Por esto, al hacer los productos
escalares aparecen en (12.6.6) surge un signo negativo extra, que ya se ha tenido en cuenta
en (12.6.7).
522 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

Este resultado se puede generalizar a un número arbitrario N de di-


mensiones del espacio de manera sencilla, con el siguiente enunciado: si
"x2 = x21 + · · · + x2N , entonces
1 2π N/2 (N − 2)
∇2 =− δ("x ), N = 1, 3, 4, 5, . . . ;
|"x|N −2 Γ(N/2)
1
∇2 log = −2π δ("x ), N = 2.
|"x |

12.7 Otros tipos de distribuciones

Comencemos este apartado definiendo el soporte de una función. Supon-


dremos siempre que las funciones en cuestión van de R ó Rn a C.
Definición 7: el soporte de una función es la adherencia del conjunto en
el cual dicha función no se anula.
Consideremos ahora el espacio D, formado por aquellas funciones en S
tales que tienen soporte compacto (cerrado y acotado). Estas funciones
forman un espacio vectorial, el cual puede heredar la topologı́a métrica de
S. Sin embargo, con esta topologı́a D es denso25 en S y, como consecuencia,
el espacio dual de D concide con el de S y nada nuevo nos propociona.
Para obtener de aquı́ algo interesante, tenemos que dotar a D de una
topologı́a más fuerte de la que hereda de S (más fuerte quiere decir que
tiene más entornos, lo que implica que la aplicación D → S que nos lleva
g ∈ D a la misma función considerada como elemento de S, es continua
pero no ası́ su inversa). Esto se consigue introduciendo una topologı́a no
métrica, que no vamos a describir aquı́, con lo cual, al ser el espacio D más
pequeño que el S y su topologı́a más fuerte, su dual topológico D× es más
grande que S × en el sentido que S × ⊂ D× . Los elementos de D× se llaman
distribuciones. De esto se sigue que toda distribución temperada es una
distribución y que hay distribuciones no temperadas.
Las distribuciones en general también admiten derivadas de todos los
órdenes y su definición es exactamente la misma del caso temperado.
¿Porqué el nombre de temperadas a las distribuciones en S × ? Tempe-
rada viene a significar que, en algún sentido, no crece demasiado, y esto es
25
Esto quiere decir que en el entorno de cualquier función de S, existe siempre una
función de D.
12.7. OTROS TIPOS DE DISTRIBUCIONES 523

realmente lo que sucede. No discutiremos esto aquı́, pero vamos a enunciar


una propiedad de las distribuciones temperadas que está relacionada con
este hecho. Comenzamos diciendo que una función f (x) de R a C está poli-
nomialmente acotada, si existe un polinomio p(x) tal que |f (x)| ≤| p(x)|,
∀ x ∈ R.
Teorema 8: sea F ∈ S × . Entonces existen un cierto n ∈ N ∪ {0} y una
función f (x) polinomialmente acotada, tales que F = Dn f (x), en el sentido
de las distribuciones (F es la derivada de la distribución asociada a f (x)).
No vamos a demostrar el teorema, pero comentemos que caracteriza
de una manera bastante interesante a las distribuciones temperadas, en
el sentido que nos permite encontrarlas todas a partir de las funciones
polinomialmente acotadas. Como ejemplo, recordaremos que la delta de
Dirac era la derivada distribucional (en el sentido de las distribuciones) de
la función de Heaviside, la cual está acotada (y por lo tanto acotada por
un polinomio de grado cero).
Aunque no es muy usual, a veces pueden aparecer en las aplicaciones
fı́sicas distribuciones no temperadas. Por ejemplo, la ecuación de la cuerda
vibrante
∂u(x, t) ∂u(x, t)
= ,
∂t2 ∂x2
admite como soluciones distribuciones no temperadas.

12.7.1 Medidas de Radon

Al estudiar las propiedades del espacio de Schwartz S definimos lo que era


el espacio Cb0 (R): el espacio vectorial de las funciones continuas y acotadas
de R a C. Este es un espacio normado con la norma del supremo:

||g||∞ := sup |g(x)|, ∀ g ∈ Cb0 (R).


x∈R

A todo elemento de su espacio dual se le llama medida de Radon. Este


espacio tendrı́a muy poco interés para el fı́sico, y éste siempre dentro del
contexto de la teorı́a de la medida, si no fuera porque la delta de Dirac
es también una medida de Radon. Y curiosamente una de las propiedades
que los fı́sicos atribuyen a la delta de Dirac, no puede demostrarse cuando
ésta está en S × o en D× , sino en el dual de Cb0 (R).
524 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

La definición de la delta de Dirac como medida de Radon no debe


diferir de la ya dada en el espacio de Schwartz. En efecto, si g(x) ∈ Cb0 (R),
el resultado de aplicar δ(x − x0 ) a g(x), no puede ser otro que g(x0 ). Esta
aplicación es lineal. Para demostrar la continuidad, hemos de recordar que
una aplicación lineal F de un espacio normado X en su cuerpo (R ó C) es
continua si y sólo si existe un real positivo K, tal que ∀ x ∈ X, se verifica
que |F (x)| ≤ K||x||. Si F = F x0 es la delta δ(x − x0 ):

|F x0 (g)| = |g(x0 )| ≤ sup |g(x)| = ||g||∞ .


x∈R

Al igual que en el caso de las distribuciones, escribiremos ahora


1 ∞
F (g) =
x0
g(x) δ(x − x0 ) dx = g(x0 ).
−∞

Vamos a ver cual es la propiedad a la que antes aludı́amos. La función


constante g(x) ≡ 1 está en Cb0 (R). Apliquemos la delta a esta función. El
resultado debe de ser igual a uno.
1 ∞
F (1) =
x0
δ(x − x0 ) dx = 1.
−∞

Este resultado no tiene sentido en ningún otro contexto: no lo tiene como


función, pues al ser su soporte un punto, que es un conjunto de medida
de Lebesgue nula, la integral de arriba serı́a cero, y tampoco lo tiene en el
sentido de las distribuciones pues ni 1 pertenece a S, ni 1 pertenece a D.

12.7.2 Distribuciones regularizadas

A veces un determinado objeto es demasiado singular en un punto (que


puede ser, por ejemplo el origen) como para ser una distribución. Existen
varias formas de aproximarse al problema de la regularización e invitamos
al lector a acudir a la obra de Gelfand citada en la bibiografı́a, para ver otro
punto de vista distinto. Vamos a ilustrar el nuestro con un sencillo ejemplo.
Consideremos la función x−2 . Si queremos definir una distribución asociada
a la misma (temperada o no), no podemos hacerlo del modo usual, pues la
integral 1 ∞
g(x)
2
dx
−∞ x
12.8. BIBLIOGRAFÍA 525

no converge para cualquier g(x) ∈ S. Pero si considerásemos funciones en


S tales que ellas y su derivada primera se anulen en cero, la integral estarı́a
bien definida. Teniendo en cuenta esta idea, definimos

S (n) := {g(x) ∈ S | g (n) (0) = 0}.

Se puede demostrar que este conjunto es cerrado en S. En efecto, sea


{gn (x)} una sucesión en S (n) que tienda a g(x) con la topologı́a de S.
Entonces,

|Dn gn (0) − Dn g(0)| ≤ sup |Dn gn (x) − Dn g(x)| → 0, si n → ∞.


x∈R

Como Dn gn (0) (la derivada n-ésima de gn (x) en el origen) es cero, también


lo será Dn g(0). Esto es suficiente para demostrar que S (n) es cerrado en S
(¿por qué?). Sea ahora

[
SZ := S (n) .
n=0
En un espacio topológico la intersección de un número arbitrario de cerrados
es cerrado. Por lo tanto SZ un subespacio cerrado de S. Además también
puede demostrarse que SZ es denso en L2 (R). Al ser un subespacio cerrado
Z SZ× contiene a S × y por tanto permite albergar un mayor
de S, el dual de S,
número de objetos. Dejamos al lector interesado la demostración de que
1
∈ SZ× , λ ∈ [1, ∞).

12.8 Bibliografı́a
1. Asplund, E., and Bungart, L., A First Course in Integration, Holt,
1966.
2. Bachman, G., and Narici, L., Functional Analysis, Academic Press,
1966.
3. Burkill, J. C., and Burkill, H., A Second Course in Mathematical
Analysis, Cambridge University Press, 1970.
4. Garnir, H.G., Fonctions des Variables Réelles, Gauthier-Villars, 1965.
5. Gelfand, I.M., and Shilov, G. E., Generalized Functions: Properties
and Applications, Academic Press, 1964.
526 CAPÍTULO 12. COMPLEMENTOS SOBRE DISTRIBUCIONES

6. Marsden, J. E., Basic Complex Analysis, Freeman, 1973.

7. Nussenzveig, H. M., Causality and Dispersion Relations, Academic


Press, 1972.

8. Reed, M., and Simon, B., Functional Analysis, Academic Press, 1972.

9. Rudin, W., Functional Analysis, Mc Graw-Hill, 1973.

10. Schwartz, L., Métodos matemáticos para las ciencias fı́sicas, Selec-
ciones Cientı́ficas, 1969.

11. Vo-Khac Khoan, Distributions, Analyse de Fourier, Opérateurs aux


Derivées Partielles, Vuibert, 1967.
Capı́tulo 13

COMPLEMENTOS SOBRE
TRANSFORMACIÓN DE
FOURIER

13.1 La transformación de Fourier

Vamos a definir tanto la transformación de Fourier como la convolución en


una dimensión porque la notación en este caso es mucho más sencilla (para
dimensión N haremos algunos breves comentarios ya que la generalización
es bastante obvia).

Definición 1: llamaremos transformación de Fourier de la función g(x) ∈ S


a: 1 ∞
1
g\(k) := √ e−ikx g(x) dx =: F(g)(k). (13.1.1)
2π −∞
Bajo el signo integral tenemos el producto de una función acotada (la expo-
nencial imaginaria1 ) por una integrable, producto que es siempre integrable.
Para cada valor de k ∈ R tenemos un número complejo g\(k). Cuando k
recorre la recta real, g\(k) se convierte en una función, llamada la trans-
formada de Fourier de g(x), cuyas propiedades vamos a investigar (por
comodidad, introducimos el sı́mbolo Dm para indicar la derivada m-ésima
de la función escrita a continuación, con respecto a su variable).
1
Tenemos una exponencial diferente para cada valor de k.

527
528 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

13.1.1 Propiedades de la transformada de Fourier

1. Si g(x) ∈ S, entonces g\(k) es indefinidamente derivable. Para verlo


escribamos 1 ∞
1
D g\(k) = √ D
m m
e−ikx g(x) dx (13.1.2)
2π −∞
Para introducir la derivada dentro de la integral, hemos de asegu-
rarnos que la siguiente integral sea convergente2 :
1 ∞
|x|m |g(x)| dx. (13.1.3)
−∞

La función bajo el signo integral en (13.1.3) no es otra cosa que el


módulo de la derivada m-ésima de la función bajo el signo integral
en (13.1.2). La convergencia de esta integral está garantizada porque
g(x) ∈ S y el módulo de la derivada no depende de k. Entonces,
1 ∞ ' (
1
D g\(k) = √
m
Dm e−ikx g(x) dx
2π −∞
1 ∞
1
= √ (−i)m xm e−ikx g(x) dx.
2π −∞
Luego:
Dm g\(k) = (−i)m F[xm g(x)](k). (13.1.4)
No solamente hemos demostrado que g\(k) es indefinidamente deri-
vable, sino que además hemos hallado una fórmula muy interesante
para su derivada m-ésima.
2. Otra interesantı́sima propiedad, válida para todo g(x) ∈ S, es la
siguiente:
k m g\(k) = (−i)m F[Dm g(x)](k). (13.1.5)
Esta identidad se demuestra por inducción. Para k = 1:
1 ∞
1
(−i)k g\(k) = √ (−ik) e−ikx g(x) dx
2π −∞
1 ∞ / −ikx 0
1 de 1 - −ikx .∞
=√ g(x) dx = √ e g(x)
2π −∞ dx 2π −∞

2
En nuestro caso, esto es suficiente porque el módulo de las derivadas sucesivas de
la función subintegral con respecto a k es integrable y no depende de k. Véase Garnir,
vol. II, p. 210.
13.1. LA TRANSFORMACIÓN DE FOURIER 529
1
1 ∞
−√ e−ikx g ! (x) dx = −F[g ! ](k).
2π −∞

La última igualdad es cierta ya que la función g(x) se anula en el in-


finito. La terminación de la demostración con el método de inducción,
se deja al lector.
3. La transformada de Fourier de g(x), g\(k) está en S. Por supuesto g\(k)
es continua en todos sus puntos ya que es derivable en los mismos.
Lo mismo se puede decir de todas sus derivadas. Para evitar errores,
en la demostración de este hecho, vamos a distiguir entre la derivada
con respecto a x y la derivada con respecto a k, de esta manera:
dm dm
Dkm := , Dxm := .
dk m dxm
Escribamos a continuación:
k n Dkm g\(k) = k n (−i)m F[xm g(x)](k) = in−m F[Dxn {xm g(x)}](k).
Tomando módulos:
21 ∞ 2
1 2
2
2
|k n
Dkm g\(k)| = √ 2 e−ikx
Dx [x g(x)] dx22
n m

1 −∞
1 ∞
≤ √ |Dxn [xm g(x)]| dx.
2π −∞

Aplicando la regla de Leibniz3 para desarrollar la derivada que hay


bajo el signo integral:
&n $ %
n
Dxn (xm g(x)) = xm−s (Dxn−s g(x)) m(m−1) . . . (m−s+1).
s
s=0

De aquı́ obtenemos
&n $ %
n
|k n
Dkm g\(k)| ≤ m(m − 1) . . . (m − s + 1)
s
s=0
1 ∞
dx
× |1 + x2 | |xm−s Dxn−s g(x)| . (13.1.6)
−∞ 1 + x2
3
La regla de Leibniz para la derivada n-ésima de un producto de funciones es:
n $ %
dn & n ds f (x) dn−s g(x)
(f (x) g(x)) = .
dxn s dxs dxn−s
s=0
530 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

Tengamos ahora en cuenta que

m(m − 1) . . . (m − s + 1) < m!

cualquiera que sea s = 1, 2, . . . n. Además


$ % n $
& %
n n
< = (1 + 1)n = 2n .
s s
s=1

Luego, $ %
n
m(m − 1) . . . (m − s + 1) < 2n m!.
s
Podemos relacionar esta última desigualdad con (13.1.6), para final-
mente obtener:
! 1 ∞ "&n
dx
|k Dk g\(k)| ≤ 2 m!
n m n
[pm−s,n−s (g)+pm−s+2,n−s (g)].
−∞ 1 + x
2
s=0
(13.1.7)
La expresión en la derecha de (13.1.7) es un número positivo que no
depende de x. Por lo tanto, es una cota superior de

sup |k n Dkm g\(k)| = pn,m (\


g ),
k∈R

cosa que es cierta para n, m = 0, 1, 2, . . . En particular, k n+1 Dkm g\(k)


está acotado, lo cual significa que

k n+1 Dkm g\(k)


k n Dkm g\(k) = → 0, si k → ∞,
k
para todos n, m = 0, 1, 2, . . .. Pero la desigualdad (13.1.7), nos dice
algo más, y muy interesante. Pongámosla como
n
&
pn,m (\
g) ≤ H [pm−s,n−s (g) + pm−s+2,n−s (g)],
s=0

donde H depende de n y m. Para obtener la información relevante


que esta desigualdad nos puede dar, vamos a utilizar un resultado
muy similar a uno que ya nos debe de ser familiar (el teorema 2 del
capı́tulo precedente). Una aplicación lineal de S en S es continua
si para toda norma pn (o indistintamente qn ) de las que definen la
13.1. LA TRANSFORMACIÓN DE FOURIER 531

topologı́a en S, existen una constante positiva H y k normas (donde


k es función de n), tales que
pn (g) ≤ H{p1 (g) + p2 (g) + . . . + pk (g)}, ∀ g ∈ S. (13.1.8)
La demostración es análoga a la ofrecida para la desigualdad (12.2.5)
del capı́tulo anterior y se sugiere al lector como ejercicio.
Una consecuencia de este resultado se obtiene tomando m = n = 0:
p0,0 (\
g ) ≤ K{p0,0 (g) + p2,0 (g)}.
Esto significa que la aplicación que nos lleva una función g(x) ∈ S a
su transformada de Fourier g\(k) ∈ S es continua en la topologı́a de
S.

Veamos ahora un importante resultado del que no daremos la demostra-


ción, remitiéndonos a la literatura especializada para la misma.
Teorema 1:
i) La transformación de Fourier es una aplicación biyectiva de S en S, y es,
por lo tanto, invertible.
ii) La inversa de la transformación de Fourier está dada por la siguiente
fórmula: 1 ∞
1
g(x) = √ eikx g\(k) dk. (13.1.9)
2π −∞
iii) F 4 (g) = g, ∀ g ∈ S. Si aplicamos cuatro veces la transformada de
Fourier a una función de S nos da ella misma. Esto podemos denotarlo
como F 4 = I.
Corolario: si dos funciones en S tienen la misma transformada de Fourier,
son idénticas.
La demostración del corolario es inmediata, teniendo en cuenta el teo-
rema. Por otro lado, si g\(k) es la transformada de Fourier de g(x), dire-
mos que g(x) es la transformada inversa de Fourier de g\(k) y escribiremos
F −1 (\
g (k))(x) = g(x).
Para F −1 existen unas fórmulas análogas a (13.1.4) y (13.1.5), que se
obtienen tomando en ellas transformadas inversas y son:
Dm g(x) = im F −1 [k m g\(k)](x), (13.1.10)
−1
x g(x) = i F
m m
[D g\(k)](x).
m
(13.1.11)
532 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

13.2 El teorema de Plancherel

Hasta ahora hemos estudiado la transformación de Fourier como una apli-


cación de S en S. Nuestro objetivo último es definirla como una aplicación
de S × en S × , es decir, queremos ver que la transformada de Fourier de
una distribución temperada se puede definir y nos da una distribución tem-
perada. Pero antes vamos a establecer un resultado que se usa en Fı́sica
Cuántica. Es el llamado teorema de Plancherel4 , que también es conocido
como relación de Parseval.
Ya hemos mencionado el espacio L2 (R) y hemos presentado de forma
explı́cita su norma. Con esa norma, L2 (R) es un espacio completo, es decir
de Banach, noción que suponemos ya familiar al lector. Pero lo que quizá
no lo sea es el concepto de espacio de Hilbert, que será desarrollado en el
segundo volumen de esta obra. El espacio L2 (R) es también un espacio de
Hilbert y conviene al menos definir aquı́ lo que se entiende por tal, para
poder seguir el razonamiento posterior.
Definición 2: diremos que un espacio vectorial X sobre el cuerpo complejo
C tiene un producto escalar, si existe una aplicación del producto cartesiano
X × X en C, tal que a todo par ordenado (x, y), con x, y ∈ X, le asocia
un número complejo, que llamaremos .x|y/ (o producto escalar de x por y,
con las siguientes condiciones:
.x|y + z/ = .x|y/ + .x|z/, ∀ x, y, z ∈ X, (13.2.1)
.x|αy/ = α.x|y/, ∀ x ∈ X, ∀ α ∈ C, (13.2.2)

.x|y/ = .y|x/ , ∀ x, y ∈ X, (13.2.3)
.x|x/ = 0 ⇐⇒ x = 0, (13.2.4)
donde la estrella denota la conjugación compleja. Esta definición implica
las siguientes relaciones:
.x + y|z/ = .x|z/ + .y|z/, ∀ x, y, z ∈ X, (13.2.5)

.αx|y/ = α .x|y/, ∀ x ∈ X, ∀ α ∈ C, (13.2.6)
del tal manera que el producto escalar es lineal por la derecha y antilineal
por la izquierda. Se puede demostrar que el producto escalar define una
norma mediante la siguiente fórmula
6
||x|| = .x|x/, ∀ x ∈ X.
4
Demostrado por M. Plancherel en 1910.
13.2. EL TEOREMA DE PLANCHEREL 533

Una propiedad interesante del producto escalar es que verifica la de-


sigualdad de Schwarz:

|.x|y/| ≤ ||x|| ||y||, ∀ x, y ∈ X.

En el caso del espacio vectorial L2 (R), el producto escalar es


1 ∞
.g|h/ := g ∗ (x) h(x) dx, ∀ f (x), h(x) ∈ L2 (R).
−∞

Este producto escalar nos da la norma en L2 (R).

Estamos ahora en condiciones de establecer la definición de espacio de


Hilbert.
Definición 3: un espacio de Hilbert es un espacio vectorial X con producto
escalar, tal que la norma generada por este producto escalar hace de X un
espacio de Banach (es decir, un espacio normado y completo).
Tomemos ahora dos funciones g(x), h(x) ∈ S. Como S ⊂ L2 (R), éstas
son de cuadrado integrable y podemos definir su producto escalar, que será:
1 ∞ 1 ∞ 1 ∞
∗ ∗ 1 \
.g|h/ = g (x) h(x) dx = g (x) √ h(k) eikx dk dx
−∞ −∞ 2π −∞
1 ∞ 1 ∞
1 \
=√ h(k) dk g ∗ (x) eikx dx
2π −∞ −∞
1 ∞ / 1 ∞ 0∗
\ 1 −ikx
= h(k) dk √ g(x) e dx
−∞ 2π −∞
1 ∞
= g (k)]∗ \
[\ g |\
h(k) dk = .\ h/ = .Fg|Fh/.
−∞

Si g = h, la última igualdad implica que ||Fg|| = ||\


g || = ||g||, ∀ g ∈ S. La
aplicación F es entonces lineal y continua de S en S, cuando éste tiene la
topologı́a heredada de L2 (R). Como S es denso en L2 (R), cabe sospechar
que podemos extender F de manera continua a todo L2 (R). Vamos a ver
que, en efecto, esto es ası́.
Sea ahora g(x) ∈ L2 (R). Como S es denso en L2 (R), existe una sucesión
{gn (x)} ⊂S tal que gn (x) → g(x) en L2 (R), es decir, ∀ ε > 0, ∃N tal que
si n > N , ||gn − g|| < ε. Consideremos ahora la sucesión {Fgn }, entonces
si n y m son naturales,

||Fgn − Fgm || = ||F(gn − gm )|| = ||gn − gm ||.


534 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

Por lo tanto, la sucesión {Fgn } es de Cauchy. Pero ya hemos dicho que


L2 (R) es un espacio de Banach, lo que significa que cualquier sucesión de
Cauchy tiene un lı́mite en el propio espacio. Ası́, Fgn → h. Este lı́mite no
depende de la sucesión elegida pues si {fn } es otra sucesión en S tal que
fn → g con la topologı́a de L2 (R), entonces:
||Ffn − h|| ≤ ||Ffn − Fgn || + ||Fgn − h|| = ||fn − gn || + ||Fgn − h||
≤ ||fn − g|| + ||g − gn || + ||Fgn − h||,
donde hemos hecho uso de la desigualdad triangular y de las propiedades
de la transformación de Fourier. Como fn → g, ∀ ε > 0, existe N1 tal que
si n > N1 , ||fn − g|| < ε/3. Como gn → g, ∀ ε > 0, existe N2 tal que si
n > N2 , ||gn − g|| < ε/3. Como Fgn → h, ∀ ε > 0, existe N3 tal que si
n > N3 , ||Fgn − h|| < ε/3. Tomando N = máx{N1 , N2 , N3 } y n > N ,
vemos que ||Ffn − h|| < ε, lo que significa que el lı́mite no depende de la
sucesión.
Podemos entonces definir sin ambigüedad Fg := limn+→∞ Fgn , con lo
que hemos definido F sobre cualquier función g(x) de cuadrado integrable.
A la función {Fg(x)}(k) le llamaremos la transformada de Fourier de g(x)
y escribiremos también5 :
1 ∞
1
[Fg(x)](k) = g\(k) = √ g(x) e−ikx dx.
2π −∞
Hemos demostrado además que {Fg(x)}(k) ≡ Fg ∈ L2 (R), ∀ g(x) ∈ L2 (R).
Observemos ahora que ∀ g(x) ∈ L2 (R),
||Fg|| = || lim Fgn || = lim ||Fgn || = lim ||gn || = || lim gn || = ||g||.
n+→∞ n+→∞ n+→∞ n+→∞
(13.2.7)
Es decir, ||Fg|| = ||g||: la transformada de Fourier preserva la norma en
L2 (R). Es lo que se llama una isometrı́a6 . Además F es lineal en L2 (R),
como fácilmente se desprende de la definición, pues si {gn (x)} y {hn (x)}
son sucesiones en S con gn → g y hn → h, siendo g, h ∈ L2 (R), y α, β ∈ C,
tenemos:
F(αg + βh) = lim F(αgn + βhn )
n→∞
= α lim F(gn ) + β lim F(hn ) = α F(g) + β F(h). (13.2.8)
n→∞ n→∞
5
En realidad esta expresión es rigurosa solamente cuando g(x) es una función inte-
grable. Pero usaremos este lenguaje porque es el usado habitualmente por los fı́sicos.
6
Veremos la definición general de isometrı́a en el segundo volumen.
13.2. EL TEOREMA DE PLANCHEREL 535

Pero F es inyectiva, pues es obviamente lineal y además

Fg = 0 ⇒ ||g|| = 0 ⇒ g = 0,

la función idénticamente nula7 . La imagen de L2 (R) por F es además un


subespacio cerrado de L2 (R). Llamémosle Im F. Para demostrar que Im F
es cerrado, vamos a ver que toda sucesión de Cauchy en Im F converge en
Im F. Sea {fn (x)} ⊂ Im F una sucesión de Cauchy. Existirá entonces para
cada n una función gn (x) ∈ L2 (R), tal que fn = Fgn . Pero

||fn − fm || = ||gn − gm ||,

y por lo tanto {gn } es también de Cauchy. Entonces, por la completitud


de L2 (R), gn → g ∈ L2 (R). Ası́, Fgn → Fg, por la continuidad de F en
L2 (R) y además Fg ∈ Im F. Como Fg es el lı́mite de la sucesión {fn (x)},
tenemos probado que Im F es cerrado en L2 (R).
Recapitulando, dos son los resultados más interesantes obtenidos en esta
sección:

• Como la transformación de Fourier es una biyección de S en sı́ mismo,


y S es un subespacio de L2 (R), entonces S ⊂ Im F.

• Im F es un subespacio cerrado de L2 (R).

Sea X un espacio topológico y A ⊂ X. Recordemos que x ∈ X es un


punto adherente a A si todo entorno de x tiene una intersección no vacı́a
con A. Al conjunto de puntos adherentes a A le llamaremos la adherencia
de A y lo denotaremos como A; A es denso en X si y sólo si A = X; A es
cerrado si y solamente si A = A.
Mencionamos en el capı́tulo anterior que S = L2 (R) en la topologı́a de
L2 (R). Por otro lado, como Im F es cerrado, coincide con su adherencia.
Pero si A ⊂ B, entonces A ⊂ B. Con todo esto en mente, podemos escribir

L2 (R) = S ⊂ ImF = ImF ⊂ L2 (R) =⇒ ImF = L2 (R).

Resumiendo todo lo anterior, podemos enunciar el siguiente teorema.


7
Como las funciones en L2 (R ) pueden no estar definidas en un conjunto de medida
de Lebesgue nula, g(x) serı́a igual a cero, salvo eventualmente en un conjunto de medida
nula.
536 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

Teorema 2 (de Plancherel): la transformación de Fourier es una apli-


cación lineal y biyectiva del espacio L2 (R) en sı́ mismo tal que conserva la
norma, es decir, ||Fg|| = ||g||, ∀ g(x) ∈ L2 (R).

Vamos a ver una consecuencia muy importante del teorema de Planche-


rel. Su importancia radica en darnos la pista de la definición, que hare-
mos posteriormente, de la transformada de Fourier de una distribución.
Comencemos por reescribir el producto escalar como
1E F
.g|f / = ||g + f ||2 − ||g + if ||2 .
2
La demostración de esta igualdad se deja como ejercicio al lector. Entonces:
1E F
.Fg|Ff / = ||F(g + f )||2 − ||F(g + if )||2
2
1E F
= ||g + f ||2 − ||g + if ||2 = .g|f /.
2
Vemos que la transformación de Fourier preserva el producto escalar.
Una segunda consecuencia es la siguiente. Si denotamos como F −1 a la
inversa de la transformación de Fourier, entonces
||F −1 g|| = ||g||, ∀ g(x) ∈ L2 (R), (13.2.9)
cuya demostración también se propone al lector. La forma explı́cita de F −1
hemos convenido en escribirla como (13.1.9).
¿Porqué el teorema de Plancherel es interesante para los fı́sicos? Sabe-
mos que en mecánica cuántica ordinaria, no relativista, existen dos tipos
de representación de funciones de onda: la representación de coordenadas
y la representación de momentos. Ambas se relacionan mediante la trans-
formada de Fourier: si ψ(x) es la función de onda que representa el estado
puro de una partı́cula en un cierto problema unidimensional en representa-
ción de coordenadas, la función de onda en representación de momentos
es 1 ∞
\ 1
ψ(k) := √ e−ikx ψ(x) dx.
2π −∞
Pero la función de onda tiene una interpretación estadı́stica: su módulo al
cuadrado representa la densidad de probabilidad de hallar la partı́cula en
una cierta región del espacio. Ası́, por ejemplo,
1 b
|ψ(x)|2 dx
a
13.2. EL TEOREMA DE PLANCHEREL 537

es la probabilidad de hallar nuestra partı́cula (que se mueve sobre una


recta), en el intervalo (a, b). Para que esto tenga sentido, ha de suceder que
/1 ∞ 01/2
||ψ|| = 2
|ψ(x)| dx = 1.
−∞

En representación de momentos la función de onda tiene que tener un


significado similar. Ası́, por ejemplo
1 d
\
|ψ(k)|2
dk
c

deberá ser la probabilidad de que el momento de la partı́cula unidimensional


esté entre c y d. Para que esta interpretación sea factible, se tendrá que
verificar que
\
||ψ(k)|| = ||ψ(x)|| = 1,
lo cual está garantizado por el teorema de Plancherel.
Finalizaremos esta sección con dos comentarios. El primero es la pre-
sentación sin demostración de un interesante resultado llamado el lema de
Riemann-Lebesgue8 , cuyo enunciado es el siguiente: la transformada de
Fourier de toda función integrable en R es una función de R a C continua
que tiende a cero cuando |k| →∞ (y está por lo tanto acotada).
El segundo se refiere a la generalización de la transformación de Fourier
a N dimensiones. Sea g("x ) ∈ S(RN ). Su transformada de Fourier se define
como 1
1 *
g\("k ) := e−ik·*x g("x ) d"x,
(2π)N/2 R N
donde "k · "x es el producto escalar euclı́deo de los vectores "k y "x. Esta
transformación de Fourier N -dimensional tiene las mismas propiedades que
la unidimensional, hasta ahora estudiada. En particular:

• La transformada de Fourier de toda función en S(RN ) es también


una función en S(RN ). Más aún, la transformación de Fourier N -
dimensional es una aplicación biyectiva y bicontinua9 de S(RN ) en
S(RN ).
8
Se ha considerado anteriormente otra versión equivalente de este resultado en la
sección 3.4.2.
9
Continua con inversa también continua.
538 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

• La transformación inversa es:


1
1 *
g("x ) = eik·*x g\("k ) d"k.
(2π)N/2 RN

• La transformación de Fourier se puede extender a L2 (RN ) y el teo-


rema de Plancherel es también válido. Además se pueden definir
las transformadas de Fourier de las distribuciones temperadas N -
dimensionales, siendo la transformación de Fourier una aplicación
biyectiva y bicontinua de S × (RN ) en S × (RN ), exactamente igual
como en el caso unidimensional, que presentaremos en la sección si-
guiente.

13.3 Transformación de Fourier de distribuciones

Sea F ∈ S × una distribución temperada. Recordemos que escribı́amos la


acción de F en g ∈ S indistintamente como F (g) o como .F |g/. Esta última
notación tiene una curiosa ventaja: si Ff2 es una distribución asociada a
una función f (x) ∈ L2 (R) (recuérdese el Ejemplo 2 del capı́tulo anterior),
entonces podemos escribir
1 ∞
.Ff |g/ =
2
f ∗ (x) g(x) dx = .f |g/,
−∞

de donde se deduce que .Ff2 |g/ no es otra cosa que el producto escalar de
las funciones f (x) y g(x) (por este orden). La transformación de Fourier
conserva este producto escalar, según vimos en la fórmula (13.2.7). Luego
.Ff |Fg/ = .f |g/. Como identificamos la función f con la distribución Ff2 ,
parece natural definir la transformada de Fourier de Ff2 como la distribución
asociada a la transformada de Fourier de f . De esta manera definamos
1 ∞ 1 ∞
.FFf |Fg/ :=
2 \∗
f (k)\ g (k) dk = f (x)∗ g(x) dx = .f |g/, ∀ g(x) ∈ S.
−∞ −∞
(13.3.1)
Pero como la transformada de Fourier de una función de S siempre existe,
podemos intentar generalizar esta definición a toda distribución temperada
F ∈ S × de la misma forma:

.FF |Fg/ = .F |g/, ∀ g(x) ∈ S. (13.3.2)


13.3. TRANSFORMACIÓN DE FOURIER DE DISTRIBUCIONES 539

Es inmediato probar que esta definición es equivalente a esta otra:


.FF |g/ = .F |F −1 g/, ∀ g(x) ∈ S, (13.3.3)
cuestión que dejamos como ejercicio al lector.
Debemos demostrar que FF es una distribución. Pero esto es muy
sencillo, ya que
(i) FF es una aplicación lineal de S en C. En efecto,
.FF |g/ = (F ◦ F −1 )(g),
es decir, FF es una composición de aplicaciones lineales, que es siempre
lineal.
(ii) FF es continua ya que es una composición de aplicaciones continuas:
F −1 que es continua de S en sı́ mismo10 y F , que es continua como apli-
cación de S en C. Estas dos propiedades las podemos resumir en el siguiente
diagrama:
F −1 F
S −→ S −→ C.

Vemos que la transformada de Fourier es una aplicación que nos lleva


distribuciones temperadas en distribuciones temperadas, lo que significa
que FS × ⊂ S × . Considerada desde este punto de vista, es también una
aplicación lineal. La prueba es sencilla y se deja para el lector. La trans-
formación de Fourier de distribuciones tiene las siguientes propiedades:

1. F es una aplicación lineal y biyectiva de S × en S × . Demostremos la


inyectividad. Sean F != T dos distribuciones temperadas distintas y
vamos a suponer que FF = FT . Esto último implica que
.F |F −1 g/ = .FF |g/ = .FT |g/ = .T |F −1 g/, ∀ g(x) ∈ S.
Pero F −1 es una aplicación biyectiva de S en S. De esta manera,
cuando g(x) recorre S, también lo hace h = F −1 g y ası́ h(x) es un
elemento arbitrario de S, lo que nos dice que
.F |h/ = .T |h/, ∀ h(x) ∈ S ⇒ F ≡ T,
mostrando que F es inyectiva. La demostración de la suprayectividad
es sencilla, pero exige consideraciones topológicas en el espacio S × ,
por lo cual la omitimos.
10
Esto no lo hemos demostrado, pero la prueba es idéntica a la de la continuidad de
F , usando la desigualdad (13.1.8).
540 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

2. Sea {Fn } una sucesión de distribuciones temperadas convergiendo


a una distribución temperada F . Entonces FFn → FF . La de-
mostración es sencilla: sabemos que Fn converge a F si y solamente
si .Fn |g/ → .F |g/, ∀ g(x) ∈ S. Entonces

.FFn |g/ = .Fn |F −1 g/ → .F |F −1 g/ = .FF |g/, ∀ g(x) ∈ S.

Teniendo en cuenta la definición de convergencia de sucesiones, con-


cluimos que FFn → F.

3. De la propiedad anterior no podemos concluir que F sea una apli-


cación continua de S × a S × , pues S × no es un espacio métrico. Pero
puede demostrarse que, en efecto, esta propiedad es cierta11 .

4. De una manera similar a como definimos en la sección 12.4 la derivada


de una distribución, podemos definir el producto de xm por una dis-
tribución, siendo m ∈ N. Para cada F ∈ S × y para cada g(x) ∈ S,
tenemos12
.xm F |g/ = .F |xm g/.

Observemos que debido a las propiedades del producto escalar, dado


un número complejo α, su producto por la distribución F verifica la
siguiente relación:
.α F |g/ = .F |α∗ g/,

que es de crucial importancia para demostrar algunas de las propie-


dades que vamos a comentar a continuación.
Calculemos ahora la transformada de Fourier de la derivada m-ésima
de la distribución F . Recordando (13.1.10) y (13.1.11), tenemos que
∀ g(x) ∈ S

.FDm F |g/ = .Dm F |F −1 g/ = (−1)m .F |Dm F −1 g/


= (−1)m .F |im F −1 (xm g)/
= (−i)m .FF |xm g/ = .im xm FF |g/. (13.3.4)
11
Remitimos al lector interesado al libro de Reed and Simon.
12
Esta definición, ası́ como la de la derivada de una distribución está inspirada en
la teorı́a de operadores simétricos en un espacio de Hilbert, que será presentada en el
Volumen II.
13.3. TRANSFORMACIÓN DE FOURIER DE DISTRIBUCIONES 541

Por tanto FDm F = im xm FF . Análogamente podrı́amos demostrar


que F(xm F ) = im Dm FF . Vemos que estas propiedades son com-
pletamente equivalentes a las propiedades correspondientes de las
transformadas de Fourier de las funciones en S. La inversa de la
transformación de Fourier, F −1 , satisface las mismas ecuaciones.
5. Lo mismo que hemos hecho con F, lo podemos hacer con F −1 , que
gozará de las mismas propiedades que F. La extensión de F −1 a
S × es justamente la inversa de la extensón de F a S × , es decir,
FF −1 = F −1 F = I, siendo I el operador identidad que nos lleva
cualquier distribución a ella misma.
6. ¿Podemos hallar la transformada de Fourier de una distribución no
temperada? Desde luego la transformada de Fourier de una función
en D está en S. Pero si g(x) ∈ D, (Fg)(k) puede ser extendida
(únicamente) a una función entera g\(z) en el plano complejo C, sa-
tisfaciendo la siguiente propiedad13 :
g (z)| ≤ CN {1 + |z|}−N eλ Imz
|\ (13.3.5)
donde N es un natural arbitrario, CN una constante positiva de-
pendiendo de N , Im z la parte imaginaria de z y [−λ, λ] ⊂ R un
intervalo conteniendo al soporte de g(x). Claramente la restricción
de g\(z) en R es una función de S. El recı́proco de esta afirmación es
cierto: si g\(z) es una función entera satisfaciendo acotaciones del tipo
(13.3.5), entonces su transformada inversa de Fourier está en D y su
soporte contenido en [−λ, λ]. Llamaremos Z a la imagen de D por
F: Z := FD. En este caso F también es biyectiva. A Z se le dota
de una topologı́a tal que F sea continua y también su inversa. Sea
ahora T ∈ D× una distribución. Definamos como su transformada de
Fourier al siguiente objeto, para todo g(x) ∈ D,
.FT |Fg/ = .T |g/.
Como Fg ∈ Z, FT es una aplicación lineal de Z en C. También
se puede demostrar su continuidad. Es más F es una aplicación
biyectiva y bicontinua (ella y su inversa son continuas) de D× en el
dual de Z, Z × . A todo elemento de Z × se le conoce como ultra-
distribución. Tanto las distribuciones (temperadas o no) como las
ultradistribuciones satisfacen las anteriores propiedades 2 y 4.
13
Véase el libro de Rudin que se menciona en la bibliografı́a.
542 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

Ejemplo 1: sea F1 la distribución asociada a la función idénticamente


igual a uno
1 ∞
.F1 |g/ = F1 (g) = 1 g(x) dx, ∀ g(x) ∈ S.
−∞

Para calcular su transformada inversa de Fourier usamos el hecho que


1 ∞
.F −1 F1 |g/ = 1 g\(k) dk.
−∞

Pero
1 1
1 ∞
1 ∞
g(x) = √ g\(k) e
ikx
dx ⇒ g(0) = √ g\(k) dk,
2π −∞ 2π −∞

y por lo tanto

−1
√ √ 1 ∞
.F F1 |g/ = 2π g(0) = 2π δ(x) g(x) dx, ∀ g(x) ∈ S.
−∞

Identificando la distribución con la función que la define, obtenemos final-


mente √ √
F −1 1 = 2π δ(x) ⇐⇒ 1 = 2π F(δ).

Ejemplo 2: consideremos la distribución valor principal de 1/x. Vamos a


calcular su transformada de Fourier:
1 ∞
314 3 1 4 −1 1
.F P x |g/ = .P x |F g/ = (F −1 g)(k) dk
−∞ k
1 ∞ 1 ∞
dk 1
= √ g(x) eikx dx.
−∞ k 2π −∞
Pero, usando los métodos de integración derivados del teorema de los
resı́duos, obtenemos que
1 ∞ ikx )
e d(kx) −πi, si x > 0,
=
−∞ kx πi, si x < 0.

Una vez que tenemos resuelta esta integral, ya podemos decir que
/1 ∞ 1 0 0
314 1
.F P x |g/ = √ −iπ g(x) dx + iπ g(x) dx ,
2π 0 −∞
13.4. LA CONVOLUCIÓN 543

lo que prueba que


5
314 π
FP =i {−H(x) + H(−x)},
x 2

donde H(x) es la función de Heaviside.

13.4 La Convolución

Como estamos haciendo de manera habitual, vamos a definir la convolución


para funciones en el espacio de Schwartz para luego generalizar, cuando
se pueda, a otro tipo de objetos. Sean f (x), g(x) ∈ S, definiremos su
convolución14 como
1 ∞
(f ∗ g)(x) := f (t) g(x − t) dt. (13.4.1)
−∞

Propiedades
1.– La convolución existe para todo x ∈ R, pues la integral que la define es
siempre convergente, al ser integral de dos funciones integrables y acotadas.
2.– La convolución es una operación conmutativa. Para demostrarlo, basta
hacer el cambio de variable y = x − t:
1 ∞ 1 ∞
(f ∗ g)(x) = f (t) g(x − t) dt = g(y) f (x − y) dy = (g ∗ f )(x).
−∞ −∞
(13.4.2)
3.– La transformada de Fourier del producto de dos funciones del espacio
de Schwartz tiene la siguiente propiedad:
1
[F(f g)](k) = √ (Ff ∗ Fg)(k), f (x), g(x) ∈ S. (13.4.3)

La demostración está basada en el teorema de Plancherel. Consideremos
1 ∞ √
itx ∗
I := .e g (x)|f (x)/ = e−itx g(x) f (x) dx = 2π F(f g)(t).
−∞
14
En ciertos libros antiguos la convolución recibe el nombre de dobladura: folding en
inglés y Faltung en alemán.
544 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

Utilizando ahora la fórmula (13.3.2), que como sabemos es consecuencia


directa del teorema de Plancherel, tenemos
1 ∞
itx ∗
I = .F(e g (x))|F(f (x)/ = [F(eitx g ∗ (x))] (k) f\(k) dk
−∞
1 ! 1 "∗

\ 1 ∞
−ikx itx ∗
= f (k) dk √ e e g (x) dx
−∞ 2π −∞
1 ∞ 1 ∞
1
=√ f\(k) dk eikx e−itx g(x) dx
2π −∞ −∞
1 ∞ 1 ∞
1
= dk f\(k) √ dx e−i(t−k)x g(x)
−∞ 2π −∞
1 ∞
= f\(k) g\(t − k) dk = (f\ ∗ g\)(t) = (Ff ∗ Fg)(t).
−∞

De la misma manera se prueba una propiedad semejante para la transfor-


mada de Fourier inversa:
1 3 −1 4
[F −1 (f g)](k) = √ (F f ) ∗ (F −1 g) (k), f (x), g(x) ∈ S. (13.4.4)

4.– Las dos propiedades anteriores tienen sus inversas. La primera dice lo
siguiente: dadas dos funciones ψ(x), ϕ(x) ∈ S, entonces,

[F(ψ ∗ ϕ)](k) = 2π{Fψ(k) Fϕ(k)}. (13.4.5)

Para demostrarla, llamemos f = Fψ y g = Fϕ. Obviamente, f, g ∈ S.


Entonces

[F(ψ ∗ ϕ)](k) = [F[F −1 f ∗ F −1 g]](k) = 2π{FF −1 (f g)}(k)
√ √
= 2π{f g}(k) = 2π{Fψ(k) Fϕ(k)}.

La segunda propiedad nos dice lo siguiente:



[F −1 (ψ ∗ ϕ)](k) = 2π{F −1 ψ(k) F −1 ϕ(k)}. (13.4.6)

5.– Si f (x), g(x) ∈ S, entonces (f ∗g)(x) ∈ S. Para demostrarlo bastará con


probar que la transformada de Fourier de la convolución de dos funciones
en S está en S. Pero el producto de dos funciones en S, definido como
13.4. LA CONVOLUCIÓN 545

(f g)(x) = f (x)g(x) es también una función de S. Recordando que la


transformada de Fourier de toda función en S está en S y usando (13.4.3),
tenemos probada nuestra afirmación.
6.– Una primera extensión del concepto de convolución puede hacerse de
la siguiente forma: si fZ(x) := f (−x), con f (x) ∈ S y F ∈ S × , entonces

(F ∗ f )(g) = F (fZ ∗ g), ∀ g(x) ∈ S (13.4.7)

define la convolución de la distribución F y la función f (x). Vamos a ver


que F ∗ f es una distribución temperada. Primero hemos de darnos cuenta
que 1 ∞
dn Z dn
(f ∗ g)(x) = f (−t) g(x − t) dt,
dxn −∞ dxn
pues el módulo de la función subintegral es integrable15 . Consideremos a
continuación
2 2 2 1 ∞ 2
2 n dm 2 2 n dm 2
Z 2
pn,m (f ∗ g) = sup 2x Z 2
(f ∗ g)2 ≤ sup 2x 2 f (−t) m g(x − t) dt22
dx m dx
x∈R x∈R −∞
! 1 ∞ 2 m 2 "
2d 2
≤ sup |x|n |f (−t)| 22 m g(x − t)22 dt
x∈R −∞ dx
! 1 ∞2 m 2 "
2d 2
≤ K sup |x| n 2 g(x − t) 2 dt
2 m 2
x∈R −∞ dx
! 1 ∞2 2 "
2 1 + t2 d m 2
= K sup |x| n 2 g(x − t) 2 dt
2 2
−∞ 1 + t dx
2 m
x∈R
! 1 ∞ "! "
dt
≤ K sup |x D g(x)| + sup |x
n m n+2 m
D g(x)|
−∞ 1 + t
2
x∈R x∈R

= C [pn,m (g) + pn+2,m (g)] , ∀ g(x) ∈ S, (13.4.8)

donde K := sup |f (x)| y el valor de C es obvio. Esta cadena de desigual-


x∈R
dades nos va a permitir demostrar que F ∗f es una distribución temperada.
En efecto, si g(x) es una función arbitraria en S, como F es una distribución
temperada, existen una constante H > 0 y k normas de las que generan la
15
Aquı́ el módulo de la derivada no es independiente de x, pero podemos demostrar que
se verifica la condición en la página 210 del libro de Garnir, vol. II, sin ningún problema.
La derivada puede entonces intercambiarse con la integral.
546 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

topologı́a en S, tales que

|(F ∗f )(g)| = |F (fZ∗g)| ≤ H {pn1 ,m1 (fZ∗g)+pn2 ,m2 (fZ∗g)+. . .+pnk ,mk (fZ∗g)}.
(13.4.9)
Es un hecho evidente que F ∗f , definida en (13.4.7), es una aplicación lineal
de S en C. Ahora uniendo este hecho con (13.4.8) y (13.4.9), obtenemos
que además de lineal es continua. Además es posible demostrar, aunque no
lo vamos a hacer aquı́, que

F(F ∗ f ) = 2π (Ff ) (FF ). (13.4.10)

Nótese que el producto de una función en S por una distribución temperada


está bien definido como una distribución temperada (¿por qué?). Esta
igualdad nos indica que análogamente a lo que sucedı́a con las funciones en
S, aquı́ tenemos también conmutatividad: F ∗ f = f ∗ F .
7.– La igualdad anterior (13.4.10), que generaliza (13.4.5), sugiere que en
general la convolución de dos distribuciones arbitrarias no va a estar bien
definida, por el hecho ya conocido de que el producto de distribuciones no
está bien definido en general. Pero hay situaciones particulares donde es
posible definir dicha convolución. Vamos a ver cuando es posible convolu-
cionar dos distribuciones temperadas. Sean F, T ∈ S × y supongamos que
para T existe un núcleo integral, como es el caso en la delta, es decir que
la acción de T pueda ponerse como
1 ∞
T (g) = T (x) g(x) dx, ∀ g(x) ∈ S.
−∞

T (x) no es necesariamente una función, pero no vamos a entrar en lo que


puede ser. En la situación descrita anteriormente y definida en (13.4.7),
tenemos claramente que
!1 ∞ " !1 ∞ "
(F ∗ f )(g) = F f (−t) g(x − t) dt = F f (t) g(x + t) dt
−∞ −∞

para todo g(x) ∈ S. Por analogı́a definiremos


!1 ∞ "
(F ∗ T )(g) := F T (t) g(x + t) dt , ∀ g(x) ∈ S. (13.4.11)
−∞

Esto tendrá sentido si lo tiene T (t) y además


1 ∞
T (t) g(x + t) dt ∈ S.
−∞
13.4. LA CONVOLUCIÓN 547

Ejemplo 3: vamos a convolucionar δ(x) con una distribución arbitraria F .


!1 ∞ "
(F ∗ δ)(g) = F δ(t) g(x + t) dt = F (g(x)) = .F |g/,
−∞

expresión válida para todo g(x) ∈ S. Esto implica que


F ∗ δ = F.

Ejemplo 4: convolucionemos ahora F con las derivadas sucesivas de la


delta en cero:
!1 ∞ "
(F ∗ δ )(g)=F
(m)
δ (t)g(x + t) dt =(−1)m F (g (m) (x))=.Dm F |g/,
(m)
−∞

lo que implica que


F ∗ δ (m) = Dm F.

Ejemplo 5: sea pn (x) un polinomio de orden n y sea Tpn la distribución


asociada a dicho polinomio. Proponemos al lector como ejercicio demostrar
que F ∗ Tpn está bien definida, cualquiera que sea la distribución F . De
la misma forma podemos demostrar que si Tf es la distribución asociada a
una función continua f (x) y acotada por un polinomio, es decir existe p(x)
tal que |f (x)| ≤| p(x)|, F ∗ Tf está también bien definida.

En muchas ocasiones T (x) puede no tener sentido, pero entonces la


expresión (13.4.11) nos da una pista para definir la convolución F ∗ T ,
cuando esto sea posible. Escribamos
(F ∗ T )(g) := F(x) (T(t) (g(x + t)),
donde T(t) implica que T actúa sobre g(x + t) considerada como función de
t. El resultado es una función sólo de x sobre la que puede actuar F , si
esta función está en S. Supongamos que la convolución existe para ciertas
F y T , en el sentido que F ∗ T es una distribución temperada. Entonces
D m (F ∗ T ) = F ∗ Dm T.
Este resultado se demuestra por inducción sobre el orden m de la derivación.
Para primer orden:
3 3d 44
.D(F ∗ T )|g/ = −.F ∗ T |Dg/ = −F(x) T(t) dx g(x + t) (13.4.12)
3 3d 44 3 4
= −F(x) T(t) dt g(x + t) = F(x) .DT(t) |g(x + t)/ = (F ∗ DT )(g).
548 CAPÍTULO 13. COMPLEMENTOS SOBRE T. DE FOURIER

Para finalizar este capı́tulo añadiremos que la convolución se puede ex-


tender a funciones sobre RN y distribuciones N -dimensionales, y que los
resultados obtenidos generalizan de manera más o menos obvia, los resul-
tados aquı́ presentados para el caso unidimensional.

13.5 Bibliografı́a

1. Asplund, E., and Bungart, L., A First Course in Integration, Holt,


1966.

2. Bachman, G., and Narici, L., Functional Analysis, Academic Press,


1966.

3. Burkill, J. C., and Burkill, H., A Second Course in Mathematical


Analysis, Cambridge University Press, 1970.

4. Garnir, H.G., Fonctions des Variables Réelles, Gauthier-Villars, 1965.

5. Gelfand, I.M., and Shilov, G. E., Generalized Functions: Properties


and Applications, Academic Press, 1964.

6. Marsden, J. E., Basic Complex Analysis, Freeman, 1973.

7. Nussenzveig, H. M., Causality and Dispersion Relations, Academic


Press, 1972.

8. Reed, M., and Simon, B., Functional Analysis, Academic Press, 1972.

9. Reed, M., and Simon, B., Fourier Analysis, Self-Adjointness, Aca-


demic Press, 1975.

10. Rudin, W., Functional Analysis, Mc Graw-Hill, 1973.

11. Vo-Khac Khoan, Distributions, Analyse de Fourier, Opérateurs aux


Derivées Partielles, Vuibert, 1967.
Índice terminológico

Abel, N., 53 Bessel, F., 114


ecuación integral, 192 ecuación diferencial, 383
abscisa de convergencia, 173 Bloch, F., 65
aceleradores de partı́culas, 226 Bohr, N., 63
acotación uniforme, 245 bola cerrada, 519
adherencia, 535 Boltzmann, L., 47
Airy, G., 411 Bromwich, T., 180
Akhiezer, N., 450 Brouwer, L., 277
analizador armónico, 121 Brown, R., 337
aplicación contractiva, 278
armónicos esféricos, 465 cadena, 251
fórmula de adición, 476 caja negra, 185
Ascoli, G., 245 campo de fuerzas, 231, 365
astroide, 228 Cantor, G., 95
átomo caos, 334
de helio, 479 Cauchy, A., 48
de hidrógeno, 164, 421, 429 valor principal, 48, 76
atractor extraño, 334 ceros múltiples, 84
autovalor, 291 ceros simples, 84
axioma de Zorn, 251 Charlier, polinomios de, 450
Chevichev, P., 460
Balmer, J., 421 Clairaut, A., 213
Banach, S., 100 clotoide, 49
barón von Richthofen, 229 coeficientes de Fourier, 106, 446
Bernouilli, D., 93 combinación integrable, 343
Bernouilli, J., 206 condiciones iniciales, 184
Bernstein, S., 450 conexión simple, 217
Bertalanffy, modelo de, 233 conexo, 217
Bertrand, J., 361 conjunto
método de, 361 de medida nula, 79, 100, 144,

549
550 ÍNDICE TERMINOLÓGICO

174, 491 descomposición en tiempo-frecuencia,


ortogonal, 103 156
ortonormal, 103 desigualdad
cerrado, 447 de Bessel, 114, 447
completo, 115, 448 de Schwarz, 166, 489
totalmente ordenado, 251 triangular, 294
constante DFT, 154
de Euler-Mascheroni, 35 difracción
de Planck, 327, 422 de Fraunhofer, 50, 165
del movimiento, 53, 348 de Fresnel, 50
convergencia de la luz, 49
en media, 113 difusión
en norma, 448 coulombiana, 62
puntual, 42, 82, 448 de impurezas, 191
uniforme, 272, 486 dinámica de poblaciones, 232
en compactos, 509 Diofanto de Alejandrı́a, 52
convexo, 241, 519 Dirac, P., 71
convolución Dirichlet, J., 95
de distribuciones temperadas, discontinuidad de salto finito, 79,
546 509
de funciones, 149, 178, 543 distancia, 483
Cornu, A., 49 distribución
Coulomb, C., 62 no temperada, 523
criterio M de Weierstrass, 102, 119 regularizada, 524
cuerda vibrante, 523 temperada, 74, 491
cuerpo negro, 64 asociada a un polinomio, 496,
curva integral, 200, 337, 342 506
curvas de nivel, 217 asociada a una constante, 496
derivada, 504
d’Alembert, J., 93 sucesión, 508
Debye, P., 65 trasladada, 77
delta de Dirac, 76, 395, 493 divergencia, 147
sucesión de funciones, 81 dual topológico, 522
tridimensional, 519
densidad ecuación
de probabilidad, 536 de Bernouilli, 206
electrónica, 460 de Bessel, 383
derivada de una distribución, 77 modificada, 396
derivadas laterales, 98 de Cauchy, 311, 323
ÍNDICE TERMINOLÓGICO 551

de Chevichev, 460 lineal no homogénea, 304


de Clairaut, 213 con coeficientes constantes,
de Euler, 311, 323 310
de Helmholtz, 430 orden, 198
de Hermite, 451, 471 ordinaria, 198
de Kummer, 406 punto ordinario, 375
de la cuerda vibrante, 523 punto singular
de Lagrange, 212 irregular, 375
de Laplace, 430, 465 regular, 375
de las integrales primeras, 343 reducción del orden, 317
de Legendre, 457 simetrı́as, 202
de Pfaff, 350 solución
casos particulares, 357 analı́tica, 199
de Riccati, 208 gráfica, 199
de Schrödinger, 210, 327, 418, numérica, 199
422, 429 soluciones particulares, 312
hipergeométrica, 398, 443 soluciones singulares, 207
confluente, 406, 443 ecuación indicial, 379
en el infinito, 404 ecuación integral de Abel, 192
ecuación caracterı́stica, 308 efecto
ecuación diferencial, 183 fotoeléctrico, 337
análisis cualitativo, 334 mariposa, 334
con coeficientes lineales, 210 Stark, 421
en derivadas parciales, 125, 197, Zeeman, 421
334 efecto mariposa, 260
en diferenciales totales, 350 Einstein, A., 337
en el infinito, 375 electrodinámica cuántica, 71
en forma implı́cita, 223 energı́a, 349
en variables separables, 202 cinética, 54
exacta, 216 interna, 352
forma implı́cita, 201 potencial, 54
forma normal, 201 entropı́a, 353
grado, 198 envolvente de una familia de cur-
homogénea, 203 vas, 214, 215
lineal, 205 equicontinuidad, 244
lineal homogénea, 299 espacio
con coeficientes constantes, de Banach, 100, 271, 532
308 de fases, 337
552 ÍNDICE TERMINOLÓGICO

de Hilbert, 75, 115, 430, 485, de Heaviside, 182


533 de inversión de Bromwich, 180
de Schwartz, 73, 152, 482 de Legendre, 61
multidimensional, 516 de Rodrigues, 457
propiedades, 484 generalizada, 432
dual, 493, 517 de Stirling, 59
métrico, 482 de Wallis, 60
completo, 485 Fourier, J., 73
vectorial, 286, 299, 493 serie, 95
topológico, 493, 500 Fraunhofer, J., 50
espectro, 156 frecuencia de corte, 164
espiral de Cornu, 49 Fresnel, A., 49
estabilidad de soluciones, 185 Frobenius, G., 374
condiciones iniciales, 259 método, 377
Euler, L., 35 Fubini, G., 142
fórmulas para Γ(z), 39 Fuchs, L., 374
exponencial de una matriz, 292 función
factor integrante, 205, 221 analı́tica, 25
casos particulares, 222 aproximación en mı́nimos cua-
factoriales, 38 drados, 105
fenómeno de Gibbs, 120, 131, 132 asociada de Legendre, 464
Fermat, P., 52, 196 beta, 44, 392
FFT, 154 caracterı́stica, 41, 509
Fibonacci, L., 190 cilı́ndrico-parabólica, 451
Fick, A., 191 continua a trozos, 97
filtro, 163 de Airy, 411
Floquet, G., 325 de Bessel, 385
Fock, V., 460 comportamiento asintótico,
forma canónica de Jordan, 291 396
forma diferencial, 216, 350 de segunda especie, 389
cerrada, 216 esférica, 416
exacta, 216, 351 función generatriz, 394
integrable, 351 fórmula de recurrencia, 392
fórmula modificada, 396, 412
de adición de los armónicos relación de cierre, 395
esféricos, 476 relación de recurrencia, 393
de Dirichlet, 117 representación integral, 391
de Gauss, 61 de Bessel modificada
ÍNDICE TERMINOLÓGICO 553

función generatriz, 397 impar, 99


de cuadrado integrable, 101, integrable, 100, 491
430, 466, 492 Lebesgue, 100
de Dawson, 190 Riemann, 100
de entrada, 185 integral del logaritmo, 48
de Hänkel, 397 integral exponencial, 47
de Heaviside, 78, 496 lipschitziana, 239
representación integral, 86 lorentziana, 145
serie de Fourier, 128 meromorfa, 36
de Hermite, 454 momento n-ésimo, 162
de Kummer, 407 par, 99
de Legendre, 457 periódica, 100
de Neumann, 389 polinomialmente acotada, 523
de orden exponencial, 172 potencial, 216, 351
de peso, 103, 432, 434 psi, ψ(z), 44, 414
de prueba, 72 regular a trozos, 99
de Scorer, 191 respuesta, 185
de soporte compacto, 72 respuesta impulso, 163
zeta de Riemann ζ(z), 51
de transferencia, 163, 185
función de onda, 536
dispersión, 166
función localmente lipschitziana,
entera, 25, 31, 173, 386, 409,
250
541
funcional, 486
error, 46, 209
funciones
escalón, 496
elı́pticas de Jacobi, 53
gamma Γ(z), 33, 453
elı́pticas de Weierstrass, 53
gráficas, 37
incompletas, 45
producto infinito, 36
integrales de Fresnel, 49
propiedades, 36 ortogonales, 103, 430
representación integral, 40 ortonormales, 430
gaussiana, 145 ϑ, 53
generatriz, 430, 448 ventana, 157
hipergeométrica 2 F1 , 400, 457,
461, 463 Galilei, G., 196
hipergeométrica confluente, 407, γ, 35
451, 454 Gauss, C., 33, 350
hipergeométrica generalizada, fórmula, 61
410 Gegenbauer, L., 450
homogénea, 203 Gibbs, J., 121
554 ÍNDICE TERMINOLÓGICO

Gompertz, B., 233 completa de primera especie,


Gossett, W., 46 55
gradiente, 147 completa de segunda especie,
grafo, 250 56
Gram, J., 430 primera especie, 55
Green, G., 520 segunda especie, 55
segunda identidad de, 520 impropia, 484
teorema de, 520 primera, 343
Grüneissen, 65 integrales de Fresnel, 49
grupo de Lie, 202, 431 integrales del seno y del coseno,
Guinness, 46 48
isometrı́a, 153, 534
Haar, A., 157
Hadamard, J., 273 Jacobi, C, 53
Hahn, H., 450 jacobiano, 346
Jordan, C., 290
Hänkel, H., 397
Jordan, C.,
Hardy, G., 52
forma canónica, 291
haz de planos, 360
Heaviside, O., 78
Kolmogorov, A., 127
Heine, H., 450
Krawtchouk, M., 450
Heisenberg, W., 166
Kronecker, L., 103
Helmholtz, H., 430 Kummer, E., 406
Hermite, C., 429 ecuación, 406
Hilbert, D., 75 función, 407
Hill, G., 423 primera fórmula, 409
hipersuperficie, 348
hipocicloide, 62 Lagrange, J., 93
hipótesis de Riemann, 52 Laguerre, E., 429
homotopı́a, 218 Laplace, P., 57, 169
Hooke, R., 418 laplaciano, 147
Laurent, P., 59
integral desarrollo, 413
completa, 200 Lebesgue, H., 42
de Fourier, 142 Legendre, A., 53, 429
de Lebesgue, 485 fórmula, 61
de solapamiento, 163 Leibniz, G., 196
del coseno, 193 regla, 529
elı́ptica, 52 lema
ÍNDICE TERMINOLÓGICO 555

de Hadamard, 273 semejante, 291


de Peano-Gronwall, 266 similar, 291
de Riemann-Lebesgue, 117, 143, solución, 287
537 Maxwell, J.C., 47
Lerch, M., 183 Mayer, C., 359
ley de Fick, 191 Mayer, método de, 359
ley de Hooke, 418 Medalla Fields, 72
ley de Planck, 64 medida de Radon, 523
ley de Solow, 233 Meixner, polinomios de, 450
ley de Stefan-Boltzmann, 64 método
leyes de conservación, 348 de Bertrand, 361
l’Hôpital, marqués de, 390 de Frobenius, 377, 455
Lie, S., 202 de los coeficientes indetermi-
ligaduras, 285 nados, 205, 312
lı́mite de Mayer, 359
débil, 83 de Natani, 359
lateral, 96 de variación de las constantes,
Lindelöf, E., 279 205, 314
lı́neas Michelson, A., 120
de corriente, 365 Mielnik, B., 210
de fuerza, 365 modelo
Liouville, J., 238 de Bertalanffy, 233
Lipschitz, R., 238 de Gompertz, 233
logı́stico, modelo, 232 de Schaefer, 232
Lorentz, H., 421 de Smith, 232
logı́stico, 232
Macsyma, 391 malthusiano, 232
Malthus, T., 232 momento n-ésimo, 162
Maple, 391 momento angular, 429, 465
March, N., 460 Morley, E., 120
masa puntual, 83 movimiento browniano, 337
Mascheroni, L., 35 multiplicadores factores integran-
Mathematica, 142, 391 tes, 351
matriz, 284 multiplicidad, 291, 308
espacio vectorial, 293
exponencial, 292 Natani, método de, 359
fundamental, 288, 298, 325 Neumann, C., 389
identidad, 292 neutrinos, 65
norma, 293 Newton, I., 195
556 ÍNDICE TERMINOLÓGICO

nilpotencia, 292 raı́z compleja, 309


norma, 241, 271, 483 polinomios ortogonales, 434
del supremo, 485, 523 ceros, 444
núcleo de Dirichlet, 116 con variable discreta, 450
núcleo integral, 546 de Chevichev, 404
números primos, 51 de primera especie, 460
números trascendentes, 429 de segunda especie, 462
de Hermite, 451
onda esférica, 476 representación integral, 478
onda plana, 476 de Laguerre, 455
ondita madre, 157 generalizados, 455
onditas (wavelets), 156 de Legendre, 404
de Haar, 157
ecuación diferencial, 443
de Morlet, 158
esféricos, 457
operador
función generatriz, 449
aniquilación, 491
no clásicos, 450
creación, 491
relación de recurrencia, 439
diferencial, 299
Pollaczek, polinomios de, 450
escalera, 474
polo, 377
laplaciano, 519
positrón, 71
en esféricas, 521
potencial coulombiano o newtonia-
número, 491
no, 459
simétrico, 540
primera fórmula de Kummer, 409
unitario, 153
principio de incertidumbre, 166
óptica de Fourier, 136
orden global, 335 producto
oscilador armónico, 368, 429, 491 de distribuciones, 517
de un número por una distri-
Parseval, M.A., 115 bución, 540
Peano, G., 238 producto escalar, 103, 492, 532
perı́odo del movimiento, 54 generalización, 504
Pfaff, J., 350 norma inducida, 532
Picard, E., 238 producto infinito, 27
Plancherel, M., 152 convergencia, 29
Planck, M., 64 absoluta, 29
Poincaré, H., 58 uniforme, 30
Poisson, S., 95 función seno, 31
polinomio, 402, 409 punto de ramificación, 377, 386
caracterı́stico, 308 punto ordinario, 375
ÍNDICE TERMINOLÓGICO 557

punto singular, 277 serie


irregular, 375 asintótica, 58
regular, 375, 398 de Balmer, 421
péndulo simple, 53 de Fourier, 95, 430, 446
amplitudes y fases, 128
radio de Bohr, 63 convergencia en media, 113
radio de convergencia, 386, 402 convergencia puntual, 117
Radon, J., 167 convergencia uniforme, 118
rama principal del logaritmo, 502 derivación término a térmi-
rectángulo de seguridad, 252 no, 122
Reduce, 391 forma compleja, 111
regla de l’Hôpital, 390, 414, 513 función no periódica, 109
relación
generalizada, 447
de cierre, 395
integración término a térmi-
de orden, 251
no, 123
de Parseval, 115, 151, 447
intervalo genérico, 111
de recurrencia, 439
para varias variables, 124
residuo, 51
de Frobenius, 377
Riccati, J., 208
de funciones
Riemann, B., 26
convergencia absoluta, 101
Riemann-Lebesgue, lema de, 537
convergencia puntual, 101
RMN, 65
convergencia uniforme, 102
Rodrigues, O., 431
derivación término a térmi-
Rolle, M., 477
no, 103
rotacional, 148, 354
integración término a térmi-
scanners, 167 no, 102, 108
scattering, 476 de Taylor, 377, 382, 471
coulombiano, 62 trigonométrica, 94
Schaefer, modelo de, 232 singularidad, 377
Schmidt, E., 430 sistema
Schrödinger, E., 89 causal, 164
Schwartz, 72 conservativo, 53
Schwarz, K., 166 de ecuaciones diferenciales
segunda identidad de Green, 520 lineal no homogéneo, 289
semifactoriales, 38 de ecuaciones diferenciales
seminorma, 508 lineal homogéneo, 285
semiplano de convergencia, 173 dinámico, 340
señales no periódicas, 155 autónomo, 340
558 ÍNDICE TERMINOLÓGICO

no autónomo, 341 de Green, 520


homogéneo de Jordan, 291
coeficientes constantes, 297 de la convergencia mayorada
no homogéneo de Lebesgue, 498
coeficientes constantes, 299 de la convergencia mayorada
no lineal de Lebesgue, 42
forma canónica, 350 de la divergencia, 520
Smith, modelo de, 232 de la función implı́cita, 277,
Solow, ley de, 233 363
solución de la función inversa, 347
maximal, 251 de la integral de Fourier, 143
prolongación, 250 de las funciones implı́citas, 346
solución 0-aproximada, 243 de Leibniz, 478
solución de Lerch, 183
general, 199 de los resı́duos, 181, 514
logarı́tmica, 380 de modulación, 164
particular, 199 de Picard, 249
singular, 200, 214 de Picard-Lindelöf, 279, 286,
soporte de una función, 72, 522 336
Stark, J., 421 de Plancherel, 152, 536
Stefan, J., 64
de Rolle, 477
Stirling, J., 26
de Weierstrass, 31
fórmula asintótica, 59
del muestreo en el dominio de
Student, 46
la frecuencia, 164
subespacio cerrado, 535
del punto fijo, 278
sucesión de Cauchy, 293, 482
del valor medio, 240, 519
superficies equipotenciales, 365
fundamental del álgebra, 33
Szegö, G., 450
teorı́a
Taylor, B., 25 cuántica de campos, 51
teorema de cuerdas, 51
de Dirichlet, 126 de la estabilidad, 334
de existencia y unicidad, 241, de la relatividad general, 26,
286, 300, 305 75
de Fermat, 52 ondulatoria de la luz, 49
de Floquet, 325 tomografı́a, 167, 460
de Frobenius, 471 topologı́a, 485
de Fubini, 142 débil, 508
de Fuchs, 376 métrica, 516
ÍNDICE TERMINOLÓGICO 559

no métrica, 508, 522 Verhulst, P., 232


transformación Z, 186
transformación de Fourier, 140, 170, Wallis, J., 27
527 fórmula, 60
convolución, 149 wavelets (onditas), 156
de distribuciones, 153, 538 Weierstrass, K., 30
discreta (DFT), 154 Wiles, A., 52
divergencia, 147 Wren, C., 418
en coseno, 148 Wronski, J., 302
en seno, 149 wronskiano, 302, 325, 477
existencia, 141
Zeeman, P., 421
gradiente, 147
Zorn, M., 251
laplaciano, 147
multidimensional, 146, 537
propiedades, 144, 528
rotacional, 148
rápida (FFT), 154
transformación de Laplace, 169
convolución, 178
fórmula de Bromwich, 180
fórmula de Heaviside, 182
propiedades, 175
transformada
de Fourier, 414, 425, 476, 527
de Laplace, 415, 474, 476
de Radon, 167, 460
trayectorias isogonales, 227
trayectorias ortogonales, 228
Tricomi, F., 431
Tukey, J., 154

ultradistribución, 541
1-forma, 216, 350

valor medio de una variable, 166


valor principal de Cauchy, 48, 76,
494
valor propio, 291
variables extensivas, 353

Você também pode gostar