A Python-based Bayesian code to perform photometric decompositions of galaxies
Fecha
2024Resumen
La clasificaci´on de entidades u objetos presentes en la naturaleza es uno de los primeros pasos en un
an´alisis cient´ıfico, esta acci´on lleva a la b´usqueda de patrones comunes que permitan entender los
fundamentos f´ısicos que se encuentran detr´as de dicha clasificaci´on. En el contexto de la astrof´ısica,
y en concreto de las galaxias, la clasificaci´on de las mismas es una necesidad de cara a entender
su contexto evolutivo y su formaci´on. La clasificaci´on morfol´ogica de las galaxias se basa en la
b´usqueda de las estructuras que las componen: el bulbo (la parte central), el disco (zona con
simetr´ıa axial en torno a un plano), la barra (un objeto que se mueve como un s´olido r´ıgido en
torno al centro gal´actico) y los brazos espirales (zonas de alta densidad de estrellas, gas y polvo
en el disco). El primer tipo de clasificaci´on fue la visual, que se basaba en detectar a ojo estas
estructuras; luego, con el paso del tiempo, han ido apareciendo nuevos tipos de clasificaci´on como
el CAS (Concentraci´on Asimetr´ıa y Suavidad), que se basa en la medici´on de estos par´ametros, y
las descomposiciones fotom´etricas, que se basan en recrear las estructuras anteriores con distintas
formas funcionales como los perfiles de S´ersic (S´ersic 1963), exponenciales (Freeman 1970) y de
Ferrers (Ferrers 1870), teniendo cada uno de ellos un numero determinado de par´ametros libres.
Es en este ultimo tipo de clasificaci´on en el que se centra este trabajo, ya que actualmente hay
una variedad de c´odigos que permiten hacer descomposiciones fotom´etricas en 2D como GALFIT
(Peng et al. 2010), GASP2D (M´endez-Abreu et al. 2008) o IMFIT (Erwin 2015). Pero estos
emplean m´etodos de minimizaci´on de m´ınimos cuadrados, basados en Levenberg–Marquardt, que
pueden presentar algunos problemas tales como: soluciones no f´ısicas, complicaci´on a la hora de
buscar condiciones iniciales, inversi´on de componentes, etc. Para tratar de solventar todas estas
dificultades, el objetivo de este trabajo es construir un nuevo c´odigo que se cimiente en la estad´ıstica
Bayesiana, ANDURYL, que permita solventar estos problemas. Una vez desarrollado el c´odigo,
se aplic´o a un caso cient´ıfico analizando las galaxias del c´umulo de galaxias Abell 2142; en el
contexto de realizar un trabajo preliminar del proyecto WEAVE Nearby Cluster Survey (WEAVE
2023), que analizar´a poblaciones de galaxias enanas en c´umulos de galaxias, al fin de ahondar en
el conocimiento acerca del comportamiento, evoluci´on y formaci´on de estos sistemas.
Los datos para llevar a cabo el trabajo han sido extra´ıdos de SDSS (Sloan Digital Sky Survey);
un proyecto cuyo objetivo es mapear la mayor cantidad de cielo posible usando datos proporcionados
por im´agenes y espectros de millones de objetos. Para ello se ha hecho un cruce entre la base de
datos de SDSS y la informaci´on espectrosc´opica de Liu et al. (2018), de manera que podemos
descargar aquellas im´agenes de galaxias que fueron clasificados como miembros del c´umulo por
Liu et al. (2018). SDSS emplea cinco filtros fotom´etricos que funcionan en distintos intervalos de
longitudes de onda; en concreto para este trabajo se ha empleado la banda “i”, que opera en una
longitud de onda efectiva de 7481 ˚A.
A la hora de analizar las im´agenes de las distintas galaxias de SDSS se han creado m´ascaras
para no incluir los objetos que se encuentren en la imagen, a excepci´on de la galaxia de estudio,
empleando para ello el c´odigo SExtractor1
. Entre otros efectos ANDURYL, tiene en cuenta que al
crear los modelos a partir de los perfiles fotom´etricos hay que convolucionar el modelo obtenido
con la Point Spread Function (PSF), para poder comparar el modelo con la observaci´on.
La versi´on actual de ANDURYL incluye un perfil de S´ersic y un perfil S´ersic+exponencial.
Teniendo esto en cuenta, para poder ajustar los par´ametros libres se han estudiado dos m´etodos
Bayesianos diferentes, el Hamiltonian Monte Carlo (HMC; Duane et al. 1987) y Nested Sampling
(Skilling 2004). Ambos m´etodos se encargan de muestrear el espacio de parámetros, dando una descripci´on completa de la distribuci´on de probabilidad posterior de cada par´ametro, de donde se
puede inferir el valor m´as probable de los mismos. El primer m´etodo se basa en realizar un mapeo
del espacio de par´ametros empleando una din´amica hamiltoniana. Mientras que el segundo, a
partir de cambios de variable, analiza el hipervolumen del espacio de par´ametros bajo una curva
unidimensional.
Usando ANDURYL hemos comparado ambos m´etodos Bayesianos, encontr´andose que el Nested
Sampling proporcionaba un mejor muestreo del espacio de par´ametros, raz´on por la cual se eligi´o
como m´etodo de inferencia principal del c´odigo. Se emplearon 500 muestras de simulaciones de
galaxias creadas a partir de un perfil de S´ersic y 500 creadas a partir de un S´ersic+exponencial
para testear la robustez del c´odigo. Se analiz´o ambas muestras con los dos perfiles disponibles,
encontr´andose que los resultados mostraban que el c´odigo funcionaba correctamente.
Se procedi´o entonces al an´alisis de la muestra de galaxias de A2142, en donde se midieron
distintas relaciones de escala como la Faber-Jackson (Faber & Jackson 1976), que relaciona la
dispersi´on de velocidad de las estrellas con la masa de las galaxias, y la relaci´on masa-tama˜no. En
ambos casos se encontr´o que las galaxias analizadas segu´ıan las tendencias derivadas para otras
muestras de la literatura, dentro de los m´argenes de error.
A partir de los resultados obtenidos se puede decir que el desarrollo del c´odigo ha resultado
satisfactorio y que se han cumplido los objetivos propuestos; teni´endose una nueva herramienta
para poder explorar la formaci´on, evoluci´on y comportamiento de las galaxias en distintos entornos.