Métodos de Krylov para sistemas lineales
Fecha
2019Resumen
Los subespacios de Krylov, que deben su nombre al matem´atico ruso
Aleks´ei Krylov, son hoy en d´ıa la base sobre la que se fundamentan los
m´etodos iterativos modernos a la hora de calcular vectores y valores propios o para resolver sistemas de ecuaciones lineales Ax = b, empleando una menor cantidad de memoria y tiempo de proceso que el resto
de m´etodos convencionales. Sin ir m´as lejos, los m´etodos num´ericos de
Gauss-Seidel y Jacobi, que se ense˜nan a lo largo del Grado, presentan un
rendimiento bastante pobre cuando se les aplica a problemas diferenciales
en 2 y 3 dimensiones espaciales.
As´ı, estos algoritmos basados en estos subespacios, llamados m´etodos de
subespacios de Krylov,han registrado buenos resultados dentro del ´algebra
lineal num´erica. Entre ellos, los m´as conocidos son el m´etodo del Gradiente Conjugado (GC) junto a su variante para ecuaciones normales
(GCNR) y el M´etodo del Residual M´ınimo Generalizado (GMRES), siendo su eficiencia y tasa de convergencia los aspectos clave en torno a los
cuales gira el estudio acometido en este trabajo. Todo ello quedar´a reflejado gr´aficamente a lo largo del ´ultimo cap´ıtulo, en el que se detallar´a el
comportamiento de estos m´etodos aplicados a Ecuaciones en Derivadas
Parciales lineales el´ıpticas y comparando c´omo var´ıan los resultados al
aplicar precondicionamiento a la matriz de los sistemas resultantes de su
discretizaci´on espacial mediante diferencias Diferencias Finitas. Krylov subspaces, which owe their name to the Russian mathematician
Aleks´ei Krylov are today the basis on which modern iterative methods are
based when calculating vectors and eigenvalues or solving systems of linear equations Ax = b, using a smaller amount of memory and CPU time
than the rest of conventional methods. Without going any further, the numerical methods of Gauss-Seidel and Jacobi, which are taught throughout
the degree, show a rather poor performance when applied to differential
problems in two and three spatial dimensions. Thus, algorithms based on
these subspaces, called Krylov subspace methods, have great acceptance in
numerical linear algebra. Among them, the best known are the Conjugate Gradient (GC) method with its variant for normal equations (GCNR)
and the Generalized Minimum Residual Method (GMRES), being their efficiency and convergence rate the key aspects of the study undertaken in
this work. All this will be reflected graphically throughout the last chapter,
which will detail the behavior of these methods applied to linear elliptic
Partial Differential Equations and comparing how the results vary when
applying preconditioning to the matrix resulting after spatial discretization
by means of Finite Differences.