dc.description.abstract | La mejora de las técnicas observacionales ha permitido aumentar considerablemente
tanto el catálogo de observaciones como el conocimiento sobre las anisotropías del fondo
cósmico de microondas, favoreciendo el desarrollo de la cosmología. Con el objetivo
de reproducir la evolución de los fenómenos cosmológicos y predecir las observaciones
de futuras misiones científicas se realizan simulaciones de N-cuerpos en supercomputadores, debido al alto costo tanto en memoria come en tiempo computacional al
considerar un número elevado de partículas. En el caso práctico del presente trabajo, se
realiza una breve introducción al modelo cosmológico estándar así como a los parámetros que lo caracterizan y se realizan diferentes simulaciones cosmológicas empleando
el código PKDGRAV3 para un volumen cúbico de lado 100 Mpc/h, partiendo de un
redshift inicial z = 49 hasta tiempos actuales almacenando diez pasos temporales de
la distribución de partículas. Los objetos a estudiar serán partículas de materia oscura
cuya dinámica puede ser descrita por las ecuaciones de un fluido ideal de presión nula.
Para analizar el comportamiento estadístico de las distribuciones de materia obtenidas,
se desarrollará el formalismo teórico de la estadística a un punto y a dos puntos con el
fin de aplicarlo sobre dichos resultados.
En primer lugar, se implementarán dos de los criterios de asignación de masa más
comunes para interpolar la distribución de materia, de naturaleza discreta, a una malla
que divide el volumen total en celdas cúbicas. A continuación, se obtiene la función
de distribución de las fluctuaciones de la densidad de materia sobre la densidad crítica
usando como base los resultados de simulaciones de 1283 y 2003 partículas, comparando cómo la función filtro escogida afecta a la construcción de esta y las diferencias
observadas para ambas simulaciones. El siguiente punto será ajustar las mediciones al
modelo lognormal, el cual es el modelo analítico más sencillo para caracterizar comportamientos no lineales de una distribución estadística. Asimismo, se estudiará la
evolución de la distribución con el redshift a través del análisis de los cuatro primeros
momentos de esta, obteniéndose que, con el paso de tiempo, las zonas con sobredensidad de materia colapsan, concentrando la mayor parte de la materia y vaciando
progresivamente las demás regiones del Universo, lo que da lugar a la formación de
estructuras como halos de materia oscura.
En relación al análisis estadístico a dos puntos, se parte de la distribución discreta
de materia para obtener la función de correlación, la cual mide la probabilidad de
encontrar un par de objetos separados por una cierta distancia en comparación con
lo que se observaría para una distribución aleatoria. Para ello, se miden los histogramas DD (Data-Data), DR (Data-Random) y RR (Random-Random), los cuales dan
iv
pie a definir una serie de estimadores como los sugeridos por Peebles y Landy-Szalay,
ofreciendo resultados muy similares. La medición también es realizada para diferentes instantes temporales, haciéndose un estudio de la evolución de la influencia de
la gravedad en la formación de estructura a diferentes escalas en distintas épocas del
universo. El espectro de potencias, definido como la transformada de Fourier de la
función de correlación, se expresa en términos del módulo al cuadrado de la transformada de Fourier de la función de sobredensidad, lo que presenta una ventaja en tiempo
computacional con respecto a la función de correlación, por lo que es la función más
extendida para caracterizar la estadística a dos puntos. Debido a la naturaleza discreta
de la muestra estadística, las mediciones presentan un error conocido como ’shot-noise’
el cual se puede modelizar como Poissoniano, además de introducirse deformaciones en
la forma del espectro al emplear la implementación FFT (Fast Fourier Transform) debidas al criterio de asignación de masa y al efecto de aliasing, introducido al considerar
condiciones de frontera periódicas en virtud del Principio Cosmológico. La asignación
de masa se traducirá en una pérdida de potencia a bajas escalas en referencia a las
predicciones teóricas, más acentuada para CIC que para NGP y el aliasing producirá
un exceso de potencia cerca de la frecuencia de Nyquist debido a la influencia de los
modos de mayor frecuencia, aspecto que será tratado en detalle en el desarrollo teórico.
Para contrastar si los resultados de la simulación son los esperados y si la medición del
espectro se ha realizado adecuadamente, se siguen dos procedimientos. en primer lugar,
se mide el espectro de potencias empleando la suma directa, ofreciéndonos una medida
de este libre del efecto de asignación de masa, lo que permite corroborar la bondad de
las correccioens realizadas. A continuación, se emplea la herramienta online CAMB, la
cual resuelve las ecuaciones de Boltzmann, ofreciendo un espectro de potencias teórico
como solución, el cual podemos ajustar a los parámetros cosmológicos empleados por
PKDGRAV3 y que nos permite comprobar que los resultados de la simulación y los
teóricos coinciden. Finalmente, se cierra el proyecto con la discusión sobre la evolución
temporal del espectro de potencias con el tiempo. | es |