RT info:eu-repo/semantics/masterThesis T1 Reconstruction of primordial fluctuations from galaxy catalogs with higher order hamiltonian sampling A1 Hernández Sánchez, Mónica K1 Astrofísica AB Las diferentes estructuras que observamos en el Universo son el resultado de la evolución delas semillas primordiales, cuyo origen se cree que proviene de fluctuaciones cuánticas. En unperíodo de inflación cósmica, estas fluctuaciones microscópicas fueron amplificadas en una fase demuy rápida expansión apenas 10−36 segundos después del Big Bang, dando lugar a un Universoprácticamente homogéneo y altamente gausiano. Sin embargo, en algunas regiones, la densidadera ligeramente superior a la media, produciéndose inestabilidades gravitacionales, haciendo queestos picos de densidad atrajesen más materia de sus alrededores. De esta manera, se originó lacompleja red cósmica que observamos en surveys galácticos, la cual está compuesta por la agrupaciónde cúmulos de galaxias en nodos y filamentos, y grandes vacíos cósmicos. La evoluciónde las fluctuaciones primordiales se puede describir con las ecuaciones de un fluido, haciendo usode la teoría de perturbaciones en un sistema de referencia Lagrangiano (teoría de perturbacionesLagrangiana), que resulta ser muy útil para describir la formación de la red cósmica. Dentro dela estructura a gran escala podemos diferenciar dos regiones: aquella a grandes escalas, dondela evolución de las fluctuaciones primordiales sigue aproximadamente un crecimiento lineal, y aescalas intermedias y pequeñas, donde la gravedad es no lineal. En este régimen no lineal, lagravedad acopla distintos modos del espacio de Fourier por ser una interacción de largo alcancey altera la distribución gausiana primordial, introduciendo desviaciones importantes de una distribuciónsimétrica normal. Esto hace muy complejo el análisis de la estructura a gran escala,requiriéndose, para ello, técnicas avanzadas que nos permitan caracterizar la red cósmica.En este contexto, escogemos una descripción Bayesiana, construyendo la función de probabilidadposterior que se quiere muestrear como el producto de un prior, describiendo la distribucióncontinua de la materia oscura, y una likelihood, describiendo la distribución discreta de lasgalaxias. Esto nos permite, en un principio, obtener los campos de materia oscura que soncompatibles con un catálogo de galaxias. Para ello, se requiere elegir unas funciones de probabilidadconcretas, incluyendo un modelo de formación de estructuras que relacione el campo dedensidad primordial con el evolucionado gravitacionalmente y una técnica concreta de muestreoestadístico.Comenzamos, en primer lugar, considerando un problema simplificado, en el cual asumimosun modelo de formación de estructuras donde el logaritmo del campo de densidad de la materiaoscura sigue una distribución gausiana (modelo lognormal). La distribución de galaxiasse asume que sigue una distribución poisoniana. En este proyecto se ha empleado el códigoARGO, que utiliza una técnica de muestreo híbrida de cadenas de Markov basada en Hamiltoniansampling. Esta técnica tiene la ventaja de ser capaz de muestrear funciones de probabilidadarbitrarias (incluyendo no gausianas) y de forma eficiente, usando los gradientes de los potencialesdeterminados por la función posterior. Para ello, se define la energía potencial como elnegativo del logaritmo de la función posterior que queremos muestrear y la energía cinéticareferida a unos momentos que son artificialmente introducidos en el método para posibilitar elmuestreo aleatorio. Estos tienen la ventaja de ser descritos por una simple gausiana. El método consiste en muestrear la probabilidad conjunta de la señal que queremos reconstruir (los camposde materia oscura), que en la analogía hamiltoniana representan las posiciones; y los momentos.La marginalización del muestreo con respecto a los momentos, se logra despreciándolos de laiteración anterior en la cadena de Markov, introduciendo nuevos valores de los mismos en cadaiteración de acuerdo a una gausiana con una matriz de covarianza determinada por la masa.El sistema de posiciones y momentos se evoluciona de acuerdo con las ecuaciones de Hamilton,que se resuelven de manera discreta y se van aceptando o rechazando en un paso de MetropolisHastings.Para la conservación del volumen del espacio de las fases se usa un esquema discretode Leapfrog, hasta ahora considerado sólo hasta segundo orden. En este trabajo, hemos implementadopor primera vez en el campo de la cosmología estructura a gran escala, esquemas deLeapfrog de mayor orden. En concreto, nos enfocamos en el cuarto orden, aunque el marco teóricoque introducimos admite órdenes mayores. Esto nos permite evolucionar el sistema hamiltonianocon pasos mucho más amplios que a segundo orden y obtener una mayor aceptación de lasiteraciones. Todo esto se traduce en un incremento de la eficiencia del método por un factor 18en la convergencia de la cadena de Markov, en términos de tiempo computacional, requiriendodos órdenes de magnitud menos iteraciones que en el caso anterior. Además, obtenemos unalongitud de correlación entre los campos de materia muestreados de unas 10 iteraciones frente alas ∼ 300 requeridas en el método a segundo orden. Esto implica que podemos obtener muestrasindependientes cada 10 iteraciones una vez se alcanza la convergencia en unas 30 iteraciones.En un segundo estudio, usamos el código BIRTH, que incluye teoría de perturbación lagrangianapara la reconstrucción de las fluctuaciones primordiales, y lo aplicamos a un problema realistacon un catálogo de galaxias emulando las galaxias rojas luminosas CMASS de BOSS final datarelease. Este catálogo incluye evolución cósmica en el cono de luz, velocidades peculiares de lasgalaxias, geometría del survey y función de selección radial. Para este código, obtenemos losmismos resultados en términos de eficiencia global que en el caso simplificado con el Leapfrog decuarto orden.A partir de una reconstrucción del campo primordial de fluctuaciones obtenida con el códigoBIRTH, realizamos una simulación de N-cuerpos con el código PKDGRAV3 hasta z = 0.57, quecorresponde con el redshift medio del catálogo de CMASS. Comprobamos que las estructurasfinales de materia oscura guardan una relación espacial muy similar a las condiciones inicialesobtenidas a partir del catálogo. Esto nos muestra una de las aplicaciones interesantes del métododesarrollado en este trabajo de fin de máster, dado que nos permitiría una comparación másdirecta entre los datos y los modelos. La eficiencia obtenida con el método Hamiltoniano desarrolladoen este trabajo nos permitiría acometer muchos más estudios en un análisis Bayesianoglobal, tales como incluir un tratamiento totalmente no lineal de la gravedad en el procesoiterativo de reconstrucción. YR 2018 FD 2018 LK http://riull.ull.es/xmlui/handle/915/10967 UL http://riull.ull.es/xmlui/handle/915/10967 LA es DS Repositorio institucional de la Universidad de La Laguna RD 19-abr-2024