Modeling the stellar spectrum of galaxies
Autor
Irizar Loibide, IñigoFecha
2021Resumen
Abstract
Este Trabajo de Fin de M´aster est´a enfocado a la implementaci´on de m´etodos computacionales con el fin de reducir el coste temporal al correr c´odigos de ajuste espectral.
Como objetivo secundario, nos proponemos implementar m´etodos de Machine Learning para facilitar el modelado de distribuciones espectrales de energ´ıa en espacios de
par´ametros N-dimensionales.
Estudiamos un m´etodo de reducci´on de dimensionalidad, en particular el m´etodo
PCA, para tratar de reducir la dimensi´on de la base de modelos SSP que utiliza una
rutina llamada pPXF para ajustar espectros gal´acticos. Convolucionando los modelos
con par´ametros cinem´aticos, pPXF modela un espectro gal´actico y lo compara con las
observaciones, tratando de minimizar los residuos variando los par´ametros. Trataremos
de recuperar los par´ametros cinem´aticos de un grupo de galaxias utilizando un subconjunto de componentes principales extra´ıdos del an´alisis PCA efectuado sobre dicha
librer´ıa. Los resultados obtenidos con los componentes principales los comparamos con
resultados presentados en la literatura.
La segunda parte del trabajo se centra en la implementaci´on de Redes Neuronales
para interpolar modelos SSP en espacios de par´ametros N-dimensionales. Dise˜namos
distintas arquitecturas capaces de interpolar modelos SSP, por un lado construyendo
un interpolador tradicional, y por otro lado creando una red que sea capaz de aprender
las caracter´ısticas espectrales de los SSP en funci´on de sus par´ametros f´ısicos.
El an´alisis PCA se basa en el estudio estad´ıstico de un grupo de datos, y trata de
crear elementos ortogonles que expliquen la m´axima variabilidad de los datos. Estos
elementos forman un subespacio que conserva la capacidad explicatoria de los datos
originales. El ejercicio de reducci´on de dimensionalidad lo aplicamos sobre una librer´ıa de SSP creada combinando la librer´ıa estelar MILES con isocronas PADOVA,
y caracterizada por los par´ametros edad y metalicidad. La librer´ıa posee un tercer
par´ametro, la pendiente de la IMF, pero es la misma para todos los elementos de la
librer´ıa. Verificamos la utilidad del m´etodo propuesto reconstruyendo los elementos
originales de la librer´ıa utilizando los componentes principales. Como ´ultimo paso de
este ejercicio, y con la idea de analizar la relaci´on entre los componentes principales
y los par´ametros espectrales, seguimos un procedimiento descrito en la literatura. En
las figuras presentadas en la secci´on de resultados del an´alisis PCA se puede ver con
claridad que un subconjunto de 6 componentes principales es suficiente para reconstruir
con precisi´on notable la librer´ıa original. En lo referente a la relaci´on entre los componentes principales y los par´ametros edad y metalicidad, encontramos que la edad
est´a codificada mayormente en el primer componente principal, apareciendo sutilmente
tanto en el segundo como en el cuarto. La metalicidad aparece m´as repartida entre
el primer y segundo componente, y apenas contribuye en los dem´as elementos de la
librer´ıa reducida.
Una vez completado el an´alisis PCA, pasamos a correr la rutina de ajuste espectral
pPXF con los componentes principales generados en el ejercicio anterior. Lo primero
a decidir es el n´umero de componentes a utilizar. Para esto, ajustamos los espectros
centrales de 15 galaxias utilizando diferentes n´umeros de componentes. Realizamos un
an´alisis estad´ıstico de los residuos para determinar que 10 componentes principales son
suficientes para obtener ajustes satisfactorios de los espectros. Una vez hecho esto,
procedemos a calcular los mapas cinem´aticos para las 15 galaxias con los componentes
principales, obteniendo resultados similares a los presentados en la literatura. El ahorro
1
temporal resultante de utilizar una librer´ıa reducida es considerable, como comentamos
en la secci´on de conclusiones.
Para la segunda mitad del trabajo, hemos hecho uso del paquete Keras como herramienta de construcci´on y entrenamiento de Redes Neuronales.
Para comenzar, proponemos dos tipos de arquitecturas, pensadas para interpolar
modelos SSP en un espacio de par´ametros bidimensional, definido por la edad y la
metalicidad. Estudiamos el efecto que puede tener la elecci´on del tipo de normalizaci´on
de datos, interpolando una mitad de la librer´ıa de SSP utilizada anteriormente despu´es
de haber entrenado la red con la otra mitad. Ambas arquitecturas resultan ser capaces
de interpolar en el plano definido por la edad y metalicidad de los SSP, como se observa
en los resultados. Una vez demostrada la validez de las redes a la hora de interpolar
SSP, pasamos a aumentar la complejidad del problema a˜nadiendo m´as par´ametros.
Con este ejercicio, aumentamos la dimensionalidad del espacio de par´ametros en el
que trabajar´an las redes. En este caso, hacemos uso de tres librer´ıas, que a diferencia
de la librer´ıa utilizada en el an´alisis PCA, est´an caracterizadas por cuatro par´ametros
espectrales. Las tres librer´ıas se componen de SSP repartidos en 12 metalicidades, 53
edades y 14 pendientes de IMF, y la diferencia entre ellas radica en el cuarto par´ametro,
el ratio de abundancia.
Haciendo uso de estas tres librer´ıas constru´ımos una serie de 5 redes, que van aumentando en complejidad. Las primeras 2 redes las dise˜namos para ver el efecto que
tiene sobre los resultados el entrenar con una librer´ıa, para ambas architecturas. La
tercera red la utilizamos para estudiar el efecto de incluir un tercer par´ametro espectra. Las redes 4 y 5 sirven para introducir la cuarta dimensi´on en forma de ratio de
abundancia. Del el ejercicio propuesto para las 5 redes, obtenemos resultados de interpolaci´on con una precisi´on notable en la mayor´ıa del espacio de par´ametros en cada
caso. Sorprendentemente, encontramos que, a medida que el problema se hace m´as
complejo, la precisi´on de las interpolaciones no disminuye. Esto nos lleva a pensar que
las redes neuronales aprenden con mayor eficiencia si se entrenan con bases de datos
m´as extensos.
La implementaci´on de redes neuronales para interpolar modelos SSP en par´ametros
N-dimensionales resulta una mejora respecto a m´etodos tradicionales en cuanto a que,
una vez entrenada la red, la interpolaci´on es instant´anea independientemente de la
dimensionalidad del espacio de par´ametros.
A lo largo de este trabajo desarrollamos dos m´etodos que pueden llevar a un ahorro
en el tiempo de computaci´on de c´odigos de ajuste espectral como pPXF.