Tesis de Postgrado
Permanent URI for this collectionhttps://cris.usm.cl/handle/123456789/276
Browse
Browsing Tesis de Postgrado by Title
Now showing 1 - 20 of 218
- Results Per Page
- Sort Options
- Some of the metrics are blocked by yourconsent settings
Thesis 2-Step Evolutionary Algorithm for the generation of dungeons with lock door missions using horizontal symmetry(Universidad Técnica Federico Santa María, 2024-11) ;Dumont Ortiz, Felipe Antonio ;Montero Ureta, Elizabeth Del Carmen ;Departamento de Informática ;Riff Rojas, Maria CristinaAraya, IgnacioEsta tesis examina la generación procedural de contenido en videojuegos, enfocándose en la creación de niveles y mazmorras. Primero, se analizan las técnicas generales de generación procedural, seguidas de un estudio más detallado sobre la generación de niveles. El trabajo principal se centra en un Algoritmo Evolutivo de 2 Pasos (2-Step EA) para generar mazmorras con misiones de llaves y barreras. La primera fase del algoritmo configura el diseño básico de la mazmorra, y la segunda fase asigna llaves y barreras estratégicamente. Los resultados muestran que el algoritmo propuesto es efectivo en producir mazmorras de alta calidad y eficientes computacionalmente. Este enfoque ofrece una metodología sólida para la generación procedural de contenido dinámico. - Some of the metrics are blocked by yourconsent settings
Thesis 3D numerical analysis of pile-supported excavations under bidirectional seismic loading(Universidad Técnica Federico Santa María, 2024-08) ;Llanquilef Navarro, Belén Noemí ;Departamento de Obras CivilesUbilla Villagrán, JavierLos sistemas de sostenimiento con pilotes anclados discontinuos se utilizan con frecuencia en excavaciones profundas temporales en Santiago de Chile, debido a las condiciones geológicas caracterizadas por suelos gravo-arenosos rígidos y un nivel freático profundo. Esta investigación presenta un estudio integral que incluye el desarrollo de un modelo 3D para simular este tipo de excavaciones con pilotes anclados discontinuos. Se emplea el modelo constitutivo HS-Small para replicar con precisión las propiedades del suelo gravoso de Santiago, utilizando parámetros calibrados en base a ensayos geofísicos y de laboratorio de investigaciones previas. El objetivo principal del estudio es realizar un análisis dinámico utilizando dos ondas tipo Ricker y ondas sísmicas aplicadas en dos direcciones. Este análisis busca simular eventos sísmicos reales y evaluar la integridad estructural de los sistemas de sostenimiento bajo tales condiciones. Se emplean técnicas computacionales avanzadas para modelar con precisión el comportamiento de estos sistemas. Además, los resultados de los análisis dinámicos se comparan con las normativas chilenas para evaluar el desempeño estructural. Esta comparación es clave para determinar si las normas son conservadoras y si los sistemas cumplen con los criterios de seguridad y rendimiento requeridos. Los resultados obtenidos de los análisis dinámicos y la comparación con las normativas chilenas aportan información valiosa sobre el comportamiento y la eficacia de los sistemas de pilotes anclados discontinuos bajo cargas dinámicas. Se observa que los pilotes ubicados en esquinas experimentan menores desplazamientos y fuerzas internas, pero mayores empujes de suelo. Además, en algunos escenarios, las presiones del suelo inducidas dinámicamente superan las calculadas por la normativa, lo que sugiere oportunidades de mejora en las prácticas de diseño. - Some of the metrics are blocked by yourconsent settings
Thesis A Mathematical and Computational Model for Multiple Collisions of Rigid Bodies: An Extension of A-CD2 Method(Universidad Técnica Federico Santa María, 2016-07) ;León Vásquez, Roberto Jesús ;Solar Fuentes, Mauricio ;Departamento de Informática ;Salinas Carrasco, LuisTorres Lopez, Claudio EstebanUna extensión de un modelo matemático y simulaciones computacionales para colisiones múltiples de cuerpos rígidos es presentada en este trabajo El método A-CD2 entrega una descripción mecánica para colisiones instantáneas entre cuerpos rígidos. La solución de un problema de optimización con restricciones es requerida para obtener las nuevas velocidades de los cuerpos rígidos después de una colisión. La extensión a este método incluye el uso de las ecuaciones de Euler para modelar las velocidades angulares, esto produce velocidades angulares no constantes cuando los momentos de inercia son distintos. Si los momentos de inercia son iguales, se obtienen velocidades angulares constantes. Esta extensión considera también una reducción en la complejidad computacional del algoritmo original. La complejidad computacional ha sido reducido de un algoritmo O(N2) a un algoritmo O(N). Esta reducción permite manejar problemas 20 veces más grandes que la implementación original. Finalmente se presentan simulaciones numéricas sobre una estructura granular, un evento real de una avalancha y la constitución de capas granulares. - Some of the metrics are blocked by yourconsent settings
Thesis A Search For Vector-Like Lepton with Long-Lived Particles in the CMS Detector(Universidad Técnica Federico Santa María, 2025-07-03) ;Vega Sepúlveda, Valentina Nicole ;Tapia Araya, Sebastián ;Garay, Francisca ;Departamento de Física ;Brooks, WilliamPeña, CristianThis thesis presents the development and results of a search for long-lived particles (LLPs) decaying into electromagnetic final states, motivated by a simplified model involving heavy vector-like leptons (VLLs). The analysis is based on the full Run 2 dataset recorded with the CMS detector at the CERN LHC, corresponding to an integrated luminosity of 138 fb−1 at √s = 13 TeV. The search targets displaced electromagnetic showers produced by LLP decays into photon pairs (aτ → γγ), reconstructed exclusively in the muon detectors. To identify these events, dedicated reconstruction algorithms were developed to cluster energy deposits in the Drift Tube (DT) and Cathode Strip Chamber (CSC) systems, independent of tracking information. Backgrounds are estimated using a data-driven technique based on a parametric transfer factor derived from control regions. A comprehensive study of systematic uncertainties was carried out. The results set the first experimental constraints on this model, excluding VLL masses up to 700 GeV for proper decay lengths around 0.005–2.4 meters. These findings demonstrate the effectiveness of using the muon system to explore signatures of new physics beyond the Standard Model. - Some of the metrics are blocked by yourconsent settings
Thesis A Two–Stage Model Predictive Control Strategy for Three–level NPC Converters based on Multistep Finite Control Set and Optimal Pulse Patterns(Universidad Técnica Federico Santa María, 2023-11) ;González Duguet, Cristóbal Alejandro ;Departamento de Ingeniería EléctricaAngulo Cardenas, Alejandro AlbertoLa transferencia de energía entre fuentes de energía y el sistema eléctrico debe cumplir con una larga y rigurosa lista de requisitos técnicos y operacionales. En este contexto, los convertidores de tres niveles con punto neutro comprimido conectados a la red mediante filtro LCL se han convertido en una configuración popular para aplicaciones de alta potencia y voltaje medio, como la integración de recursos energéticos distribuidos. La presencia del filtro LCL aumenta la complejidad del sistema de control cuando se utilizan esquemas de control lineales tradicionales, por lo que las estrategias de control predictivo de modelo (MPC, por sus siglas en inglés) surgen como una alternativa conveniente debido a que han demostrado una excelente capacidad de seguimiento de referencia y una rápida respuesta dinámica. Sin embargo, la complejidad computacional de las estrategias MPC se convierte en un problema, ya que las plataformas de control comerciales deben ejecutar los cálculos en tiempo real en decenas de microsegundos. Entre las estrategias MPC disponibles, el MPC de conjunto de control finito multietapa (MFCS, por sus siglas en inglés) ha demostrado ser una opción viable en cuanto a carga computacional. No obstante, los controladores MFCS no generan voltajes periódicos ni simétricos entre las fases del sistema, lo que da lugar a espectros de Fourier continuos en los estados del sistema, lo que es un inconveniente fundamental para aplicaciones conectadas a la red, ya que los códigos de red imponen límites sobre las amplitudes admisibles de los componentes armónicos de las corrientes de la red. Por otro lado, los patrones de pulsos óptimos (OPP, por sus siglas en inglés) garantizan una frecuencia de conmutación baja y fija de los semiconductores, minimizando la distorsión de las variables de estado. Sin embargo, las formulaciones actuales de los OPPs asumen que el sistema puede modelarse como una carga puramente inductiva, lo que llevaría a un rendimiento subóptimo y no permitiría agregar restricciones que aseguren el cumplimiento de los códigos de red respecto a las corrientes de la red. Este trabajo propone integrar dos etapas de optimización que aborden diferentes objetivos de control en un único marco de control generalizado. Este marco se utilizó para desarrollar una estrategia de control (OPP-MFCS) que combina los beneficios de los OPP y los controladores MFCS. Para ello, se propuso una nueva formulación para los OPPs considerando el modelo del filtro LCL, lo que permite la minimización directa de la distorsión total de demanda (TDD) de las corrientes de la red mientras se garantiza que se cumplan los límites admisibles para los componentes armónicos. Además, al formular un controlador MFCS con horizonte de predicción de tamaño variable, fue posible extender el tiempo cubierto por el horizonte de predicción sin carga computacional adicional. Esta mejora permitió un mejor rendimiento del controlador tanto en las respuestas transitorias como en estado estable del sistema. Se realizaron análisis exhaustivos de las contribuciones de los OPPs, los controladores MFCS y la estrategia OPP-MFCS. La estrategia OPP-MFCS fue probada mediante simulaciones y experimentos con hardware en el lazo, mostrando su capacidad para cumplir con la norma técnica IEEE Std. 519-2022 mientras el convertidor opera a una frecuencia de conmutación baja y fija, con voltajes periódicos y simétricos, cumpliendo con todos los objetivos de control definido - Some of the metrics are blocked by yourconsent settings
Thesis Adaptive dynamic compensation for real-time hybrid simulation testing(Universidad Técnica Federico Santa María, 2021-08) ;Gálmez Villaseca, Cristóbal Gonzalo ;Departamento de Obras CivilesFermandois Cornejo, Gaston AndresLa simulación híbrida en tiempo real (Real-Time Hybrid Simulation, RTHS) es una técnica experimental utilizada para estudiar estructuras sometidas a excitaciones dinámicas, donde una subestructura se ensaya físicamente y el resto se modela numéricamente. La precisión y estabilidad del ensayo dependen de minimizar errores de sincronización entre los subdominios numérico y experimental. Este estudio propone un método de compensación adaptativa para diseñar un controlador independiente de la subestructura experimental, el cual no requiere ensayos previos para su calibración. Las condiciones iniciales se definen mediante un modelo del sistema de transferencia sin interacción física, y se ajustan en tiempo real durante el ensayo. La metodología se valida mediante simulaciones numéricas en un problema de referencia virtual (benchmark) de RTHS, considerando escenarios con múltiples subestructuras experimentales, incluso no lineales. Además, se desarrolla un indicador de estabilidad en línea basado en métodos energéticos, capaz de prevenir daños por desplazamientos excesivos. Los resultados demuestran que la estrategia propuesta mejora significativamente la precisión, robustez y seguridad del ensayo RTHS. - Some of the metrics are blocked by yourconsent settings
Thesis Advanced trans-domain knowledge transfer through transformer-based distillation: a novel framework for image-LiDAR integration in autonomous systems(Universidad Técnica Federico Santa María, 2025-03-11) ;Ortiz Sandoval, Jesus Eduardo ;Departamento de ElectrónicaCreixell Fuentes, Werner UweRecent advances in deep learning have significantly improved the performance of image classification models, yet adapting these models to fundamentally different data types—such as point clouds from Light Detection and Ranging (LiDAR) sensors—remains a challenging task. This thesis addresses that challenge by exploring trans-domain knowledge distillation: transferring capabilities learned from well-established image classification networks to LiDAR point cloud classification. Building on insights gained from earlier research on partial discharge (PD) signal generation using Deep Convolutional Generative Adversarial Networks (DCGANs), our approach leverages adversarial learning principles to preserve domain-specific features during knowledge transfer. Central to this work is a transformer-based distillation framework that aligns the rich feature representations of teacher models (trained on image datasets) with the unique spatial and structural characteristics of LiDAR point clouds. This transformer architecture employs multi-head attention mechanisms to maintain both global structure and local detail—an insight originally derived from our GAN-based PD signal synthesis, where temporal and spectral fidelity proved essential for realistic data generation. Through rigorous experimental validation on benchmark datasets, our distilled models achieve an F1-score of 90.4. Beyond immediate performance gains, this research underscores the versatility of knowledge distillation techniques for trans-domain adaptation. It illustrates how established models trained on high-fidelity image data can enhance the interpretative power of LiDAR-based classifiers, significantly reducing the reliance on large-scale annotated point cloud datasets. Additionally, the thesis explores the impact of optimizing distillation parameters—such as temperature and weighting factors—and highlights the potential of self-supervised learning for scenarios where annotated teacher data are scarce. The proposed methodology has broad applicability, potentially extending beyond the fusion of image and LiDAR domains to other fields characterized by data disparities in availability, frequency, and richness. Ultimately, this work lays the groundwork for more robust, efficient, and cost-effective perception systems that can accelerate the deployment of intelligent, real-time applications such as autonomous driving and beyond. - Some of the metrics are blocked by yourconsent settings
Thesis Agujeros negros con pelo y dualidad ADS/CFT(Universidad Técnica Federico Santa María, 2016-11) ;Choque Quispe, David ;Departamento de FísicaAstefanesei, Dumitru (Pontificia Universidad Católica de Valparaíso)La dualidad AdS/CFT es una realización concreta del principio holográfico. Es una herramienta muy eficaz para extraer información de teorías gauge fuertemente acopladas (en dimensiones) de una teoría gravitacional clásica (en d+1 dimensiones). Los agujeros negros asintóticamente AdS juegan un rol importante en el entendimiento de la dinámica y termodinámica de las teorías del campo holográficas duales. En particular, estos agujeros negros son duales a los estados térmicos de la teoría del campo del borde. Los campos desenpeñan un rol importante en cosmología para modelar la materia oscura, en física de altas energías la partícula de Higgs es escalar. Consideramos teorías de campos escalares mínimamente acoplados a la gravedad con potenciales (escalares) no-triviales. Calculamos la acción on-shell regularizada con el método de renormalización holográfica y de esta obtenemos las cantidades termodinámicas de soluciones exactas de agujeros negros. Estudiamos los diagramas de fase de estos agujeros negros y sus interpretaciones en la teoría del campo dual. Construimos el tensor de stress de Brown-York y calculamos la masa (holográfica). A continuación, para una solución general, calculamos la masa holográfica, la masa Hamiltoniana y vemos que concuerdan para cualesquiera condiciones de borde. Estudiamos la anomalía de traza y su contribución no-trivial a la masa. Estos resultados fueron anteriormente publicados en [1-3]. - Some of the metrics are blocked by yourconsent settings
Thesis Ajustando la similaridad intra-modal en un entrenamiento cross-modal basado en tripletas(Universidad Técnica Federico Santa María, 2024) ;Mallea Ruz, Mario Carlos ;Solar Fuentes, Mauricio ;Departamento de Informática ;Ñanculef Alegria, Juan RicardoAraya Lopez, Mauricio AlejandroContent-Based Image Retrieval (CBIR) es un técnica que permite ingresar como consulta una imagen, y recuperar las imágenes visualmente más parecidas a la con sulta en una base de datos. Una técnica relaciona es el Cross-modal retrieval (CMR), este permite consultar en una modalidad (ej: texto) y recuperar información en otra modalidad (ej: imágenes). Con el rápido crecimiento del contenido multimedia, CBIR y CMR se han convertido en tecnologías esenciales para construir sistemas de infor mación en varios dominios, como: social networks, online retail, remote sensing , y medicine. - Some of the metrics are blocked by yourconsent settings
Thesis Ajuste, aplicación y sensibilización de métodos de valorización de los activos viales de pasarelas peatonales concesionadas(Universidad Técnica Federico Santa María, 2024-08) ;Segura Iturrieta, Rudy Alberto ;Departamento de Obras CivilesOsorio Lird, AleliLa valorización de activos busca estimar el valor monetario de infraestructura física, como las pasarelas peatonales en rutas concesionadas, siendo clave en la gestión vial. En Chile, la metodología actual fue diseñada para la red no concesionada, por lo que no responde a los objetivos específicos de las concesiones interurbanas. Esta tesis propone un modelo de valorización ajustado a los componentes del activo pasarelas (estructura, accesorios, iluminación, paraderos y aceras), basado en métodos de Depreciación Lineal (DL), Valor Ajustado Respecto a la Condición Límite (VARCL) y Valor Fijo Respecto a la Condición Límite (VFRCL). El modelo se valida y sensibiliza con datos reales de carreteras concesionadas chilenas. Los resultados muestran que el modelo supera en exactitud y precisión a las metodologías vigentes, gracias a la obtención de Costos Históricos específicos y al uso de índices de condición que reflejan mejor la integridad funcional del activo. Además, su implementación en bases de licitación permitiría evaluar la gestión del concesionario en la conservación del valor de los activos, siempre que se garantice el correcto procesamiento de la información y el diseño de mecanismos de incentivo y penalización. - Some of the metrics are blocked by yourconsent settings
Thesis Algoritmo multi-fuente de imputación de datos faltantes basado en algoritmo EM y vecinos recomendados(Universidad Técnica Federico Santa María, 2025-06-12) ;Campos Chartier, Sergio Manuel ;Sotelo Parraguez, Julio Andres ;Departamento de InformáticaAllende Olivares, Héctor ManuelEn los problemas de Machine Learning, la presencia de datos faltantes es un desafío común, especialmente cuando las variables del estudio provienen de múltiples fuentes de información. Cada fuente puede tener distintos formatos, niveles de precisión y frecuencias de actualización, lo que genera inconsistencias y vacíos en los datos recopilados. Por ejemplo, en un sistema de predicción de demanda que depende de datos meteorológicos, económicos y de redes sociales, algunas fuentes pueden proporcionar información en tiempo real, mientras que otras pueden presentar retrasos en las actualizaciones o contener valores faltantes debido a errores de registro. Estas discrepancias pueden afectar la calidad del modelo, reduciendo su capacidad predictiva y aumentando la incertidumbre en los resultados. Por lo tanto, es fundamental aplicar estrategias como la imputación de datos si se desea realizar una tarea de aprendizaje supervisado, como regresión o clasificación, sin perder datos en el proceso. El algoritmo de Expectation Maximization (EM) ha sido utilizado con éxito para manejar valores faltantes, pero no está diseñado para escenarios típicos de Machine Learning, donde se crea un modelo de imputación sobre los datos de entrenamiento y luego se aplica a un conjunto de prueba. En este trabajo, proponemos EMreg-KNN, un novedoso algoritmo de imputación supervisado y de múltiples fuentes. Basado en el algoritmo EM y en el concepto de vecinos recomendados, EMreg-KNN construye un modelo de conjunto basado en regresión para la imputación de datos futuros, lo que permite la utilización posterior de cualquier método de Machine Learning basado en vectores para evaluar automáticamente tareas de clasificación. Para evaluar esta propuesta, se utilizan tres bases de datos diferentes con datos faltantes y cuatro algoritmos de clasificación. El método propuesto competirá con otros métodos de imputación para garantizar que los algoritmos de clasificación ofrezcan los mejores resultados según métricas ROC. EMreg-KNN obtiene mejores resultados en la mayoría de los escenarios. Además, los clasificadores muestran un comportamiento más estable gracias a la imputación de los valores faltantes. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis de fallas en estaciones de carga rápida para vehículos eléctricos(Universidad Técnica Federico Santa María, 2025-05-27) ;Palacio Aguilera, Alexander Brian ;Renaudineau, Hugues ;Otro ;Departamento de Electrónica ;Kouro Renaer, Samir FelipeKouro Renaer, Samir FelipeEs innegable el potencial e incremento de los vehículos eléctricos en el transporte, dado que es un componente vital para la descarbonización y transición energética. Esto se condice con una gran demanda en la infraestructura de carga, la cual posee una gran relevancia para una expansión de un medio de transporte descarbonizado. Es por ello que es necesario no solamente considerar el incremento de dicha infraestructura, sino que también es necesario extender la vida útil de la ya existente. Hay una diversa variedad de perfiles de carga capaces de alimentar las baterías de vehículos eléctricos, las cuales son diseñadas teniendo en cuenta consideraciones físico-químicas de las baterías de ion-litio. Existe un amplio espectro de investigaciones en relación con los perfiles de carga que se han hecho al respecto desde el punto de vista de las baterías. Sin embargo, faltan precedentes que detallen cómo estos perfiles impactan en las estaciones de carga rápida. En este trabajo se tiene como objetivo principal llevar a cabo un estudio del impacto de perfiles de carga de baterías en estaciones de carga de vehículos eléctricos a través del análisis de acumulación de daño en los semiconductores de dichas estaciones. Con ello se pretende determinar qué perfil de carga podría extender la vida útil y aumentar la confiabilidad y disponibilidad de esta importante infraestructura de transición energética. La principal razón de fallas en los semiconductores son los ciclos térmicos, dado en gran medida a la fatiga que producen en los materiales del encapsulado debido a la expansión y compresión de los mismos, sobre todo en el punto de juntura del MOSFET. Es por ello que en este trabajo se obtiene la temperatura del punto de juntura a través del análisis de Cauer, el cual es alimentado por las pérdidas que se producen en los semiconductores durante todo el proceso de carga. Para lograr un análisis detallado del impacto que se tiene en los semiconductores, en primera instancia se debe determinar qué factores se van a considerar y bajo qué circunstancias de operación. Para poder tener un análisis que represente diferentes temperaturas ambientes, se obtendrán datos bajo tres condiciones climáticas: una de 10°C, otra de 20°C y otra de 30°C. Esto es para poder observar el impacto que tiene la temperatura ambiente en los ciclos térmicos de los semiconductores. Para un análisis en el que se consideren el tipo de configuración, así como el impacto que se tiene en la potencia de los semiconductores, se estudian dos convertidores: el Terra HPC150 de la empresa ABB y el Supercharger de la empresa Tesla. A los MOSFET seleccionados para el análisis se les obtienen las pérdidas durante diferentes etapas del proceso de carga para así simular las pérdidas obtenidas durante todo el proceso. Para este propósito se usan herramientas como PLECS, Matlab y Simulink, dado que son necesarias para el manejo de datos que se emplea. En la práctica y en la literatura existe un amplio desarrollo de perfiles de carga, para el propósito de esta tesis se emplearán los más comunes, Constant Current-Constant Voltage (CC-CV), Multi-Stage Constant Current (MSCC), Boost Charging (BC) y Pulse Charging (PC). Para los cuales se empleará el ratio C para medir las corrientes, en donde 1C equivale a la corriente necesaria para cargar la batería completamente en una hora. Para el caso del convertidor de ABB, dado a las limitaciones de potencia, se emplearán corrientes de 1C y 2C. En el caso de Tesla, se consideran los perfiles de manera bastante similar a los de ABB, pero en vez de que se realice con corrientes máximas de 2C, se realiza con 3C, esto debido a que el convertidor puede entregar mayor potencia a las baterías. Los resultados obtenidos en la tesis muestran una similitud bastante evidente entre los perfiles con baja corriente en los convertidores. Esto se debe principalmente a las formas parecidas en que se comportan, así como a la manera en que se construyen los vectores de pérdidas de potencia a lo largo del ciclo de carga. En cuanto a las corrientes más altas, es decir, entre los perfiles CC-CV, MSCC y BC, este fenómeno se repite. Sin embargo, en cuanto al perfil de carga PC, se muestra un evidente deterioro de los semiconductores, superando con creces a los demás perfiles. También se aprecia el impacto que la frecuencia produce en los semiconductores, ya que el pulso de 25 Hz es menos dañino que el caso de 1 Hz. Esto se debe principalmente a que la frecuencia, sobre todo por la inercia térmica del disipador, está directamente relacionada con el tamaño de los ciclos térmicos. Los pulsos de corriente de 1 Hz son causantes de ciclos de temperaturas que pueden llegar a tener más de 70 °C de diferencia, mientras que en el caso de 25 Hz, la diferencia llega a solo 20 °C. La principal conclusión del estudio indica que el perfil de carga que presenta un mayor daño acumulado al punto de juntura de los MOSFET es el PC. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis de la variación en la fracción de amortiguamiento modal de estructuras de marcos de acero debido a daños en particiones de yeso(Universidad Técnica Federico Santa María, 2024-09) ;Jouvhomme Vera, Rosario Sophie ;Departamento de Obras CivilesCruz Doggenweiler, Cristian EmanuelLa fracción de amortiguamiento representa matemáticamente las fuentes de disipación de energía no incluidas explícitamente en el modelo estructural, como el amortiguamiento inherente de materiales, fricción entre componentes, interacción suelo-estructura no modelada y deterioro de elementos no estructurales, como los tabiques de yeso. Recientemente, guías de diseño por desempeño en California proponen aumentar esta fracción con la intensidad sísmica, especulando que el daño en elementos no estructurales incrementa su contribución. Sin embargo, no existen estudios que cuantifiquen este efecto. Este trabajo tiene como objetivo cuantificar la variación de las fracciones de amortiguamiento modal debido al deterioro de tabiques de yeso, y su relación con la amplitud de respuesta estructural. Se estudian estructuras de 3, 9, 20 y 50 pisos modeladas en OpenSees con tabiques explícitamente incluidos. El análisis incremental de franjas múltiples permitió evaluar la evolución del primer modo de amortiguamiento usando técnicas de identificación de sistemas. Se cuantificó también la variación del periodo y amortiguamiento equivalentes en función del desplazamiento máximo de techo normalizado (PRDR). Se observa que, para intensidades menores al sismo de servicio (SLE), el periodo fundamental disminuye entre 2.5% y 4.2% respecto a la estructura sin tabiques. Para mayores intensidades, el periodo converge al de la estructura sin tabiques. En cuanto al amortiguamiento del primer modo, se incrementa entre 8% y 45% para intensidades menores a SLE. Luego decae linealmente (en escala logarítmica) con el aumento del PRDR hasta estabilizarse en 4%-6% por sobre la estructura sin tabiques. Se identifican tres zonas de comportamiento: crecimiento inicial, meseta y decaimiento hacia intensidades MCE. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis del espectro de emisión de la evaporación de un agujero negro de Schwarzschild(Universidad Técnica Federico Santa María, 2025-06-16) ;Figueroa Villegas, Miguel Ángel ;Castillo Felisola, Oscar ;Departamento de FísicaDib Venturelli, ClaudioUn agujero negro de Schwarzschild tiene una temperatura de Hawking inversamente proporcional a su masa. De este modo, los agujeros negros se evaporan a una tasa creciente que disminuye su masa y aumenta su temperatura. A pesar de las propiedades termodinámicas de los agujeros negros, el espectro observado por un observador distante difiere del de un cuerpo negro ideal a causa de los denominados factores de cuerpo gris. En consecuencia, su consideración es necesaria para obtener el espectro resultante y para estudiar fuentes actuales de rayos gamma que puedan tener un origen debido a este fenómeno. No obstante, la presencia de dichos factores plantea interrogantes sobre la verdadera naturaleza térmica del espectro y del mismo agujero negro.En este trabajo investigamos el espectro de emisión de un agujero negro de Schwarzschild usando la teoría cuántica de campos en espacios curvos. Analizamos los factores de cuerpo gris que dan a lugar a las desviaciones con respecto a un cuerpo negro y estudiamos los efectos en el espectro de diferentes especies no masivas, con particular énfasis a partículas escalares y vectoriales. Adicionalmente, mediante un análisis semiclásico, se estudia el rol de los efectos dispersivos en la determinación del espectro térmico y se determina el tamaño efectivo como fuente emisora. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis del impacto en la suficiencia energética de una mayor penetración de energía eólica en el SIC(Universidad Técnica Federico Santa María, 2013-09-26) ;Wetzel González, Rodrigo Guillermo ;Departamento de Ingeniería EléctricaGil Sagas, Esteban ManuelEn esta tesis se analiza la suciencia energetica del Sistema Interconectado Central chileno (SIC) frente a la incorporacion de energa eolica. El analisis basado en la simulacion de Monte Carlo considera variables estocasticas tales como salida forzada de las unidades generadoras y generacion de centrales eolicas, y es capaz de evaluar el impacto de restricciones operacionales (tales como lmites de las lneas de transmision y restricciones de las unidades termicas) que son difciles de capturar con las tecnicas analticas. Previo a la evaluacion de la suciencia, fue necesario crear los perles eolicos sinteticos. Se contaba con informacion de diferentes centros de medicion de la velocidad eolica en las regiones que componen el SIC. Como la velocidad se encontraba medida a 20m, pero las aspas de los generadores eolicos se encuentran a una altura promedio de 80m, se utilizo el metodo de Hellmann para extrapolar la velocidad. Posteriormente, se utiliz o un modelo SARIMA (1; 0; 1)x(1; 1; 1)24 para predecir los datos y entonces se obtuvo un conjunto de perles eolicos sinteticos. Luego, los perles de generacion eolica sinteticos se usaron como entrada estocastica en un esquema de Monte Carlo que utiliza un modelo de produccion del SIC para obtener metricas capaces de capturar el impacto de diferentes restricciones operacionales en la suciencia del sistema. Al analizar el efecto de diferentes niveles de generacion eolica se pudo observar que la mayora de los benecios, en terminos de incrementar la suciencia, ocurren cuando se agregan cerca de 500MW adicionales de generacion eolica. Con generacion eolica adicional, la suciencia permanece casi constante. Como el metodo propuesto fue capaz de captar restricciones operacionales, se pudo observar que en algunos casos la conexion de una nueva planta eolica podra causar un aumento en la energa no servida del sistema. Por ejemplo, al conectar la central Lebu Sur en el nodo Hualpen 220, despues que las otras centrales eolicas se encontraba operando, se produjo un leve aumento en la energa no servida como resultado de un cambio en el predespacho y congestion en el sistema de transmision. Tambien se analizo la ventaja de la diversicacion de la generacion eolica. Por ejemplo, se pudo observar que la energa no servida del sistema disminuye en cerca de un 7% cuando tres centrales eolicas de 100MW fueron conectadas en diferentes nodos, en lugar de una de 300MW conectada en uno. Otro resultado de este estudio fue descubrir que frente a una hidrologa seca la potencia eolica contribuye mas en la suciencia del sistema de potencia que frente a una hidrologa humeda, como resultado de la mayor disponibilidad de la reserva en giro. Finalmente, se propuso un metodo basado en simulacion para estimar el valor de capacidad de la potencia eolica. Se trabajo con tres centrales eolicas con diferentes factores de carga y diferentes tipos de correlacion entre la demanda del sistema y la generacion eolica. Con el proposito de validar el metodo, los resultados del metodo propuesto se compararon, y encontraron consistentes, con los resultado obtenidos usando el metodo recomendado por el IEEE Task Force on the Capacity Value of Wind Power. Los resultados mostraron que con correlacion positiva entre la generacion y demanda, el valor de capacidad puede mejorar en mas de un 50% con respecto a una correlacion negativa. - Some of the metrics are blocked by yourconsent settings
Thesis Aplicación de técnicas de Machine Learning para realizar detección de promotores en múltiples especies(Universidad Técnica Federico Santa María, 2025-01-23) ;González Henríquez, Marcelo Iván ;Departamento de ElectrónicaJara Carvallo, Nicolás AlonsoEn aspectos de la genética, un promotor es una secuencia de ADN que regula y promueve el inicio de la transcripción genética, siendo grandes responsables del control de todos los procesos fisiológicos de una célula. La identificación precisa de los promotores es crucial para comprender la transcripción de ADN, lo que puede llevar a beneficios como el incremento en la producción de fármacos en microorganismos y la mejora de las propiedades de los cultivos agrícolas. A pesar de su importancia, los promotores carecen de patrones de secuencia de ADN claramente conservados entre diferentes tipos de promotores, así como entre especies, lo que complica su caracterización. En la última década, la disponibilidad pública de datos de promotores de diversas especies ha fomentado el desarrollo de modelos de Machine Learning para abordar esta tarea. La detección de promotores utilizando métodos de Machine Learning implica múltiples desafíos. Los datos genéticos disponibles a menudo son insuficientes, lo que limita la disponibilidad de modelos efectivos en términos del rango de especies que pueden abarcar. Además, un problema significativo es la falta de consenso sobre la definición de \textit{clase negativa} en el contexto de clasificación binaria, es decir, qué secuencias de ADN se deben considerar como no promotores. Este problema no solo complica la creación de conjuntos de datos representativos, sino que también afecta la capacidad de los modelos para generalizar en diferentes contextos genómicos. En este trabajo, se propone un enfoque basado en técnicas de Machine Learning para la detección de promotores, abordando el problema como una tarea de clasificación binaria en múltiples especies. Para ello, se construyen dos conjuntos de datos: uno basado en secuencias codificantes y otro en secuencias generadas sintéticamente, utilizadas como clases negativas. Además, se considera el contenido de GC como una variable de interés clave, ya que podría introducir sesgos que afecten el rendimiento de los modelos. El enfoque propuesto incluye la evaluación de modelos utilizando métricas estándar para clasificadores binarios y se comparan con métodos convencionales. También se analizan diversos escenarios representando especies con distribuciones variables de contenido de GC para evaluar el impacto del origen de las secuencias no promotoras en los resultados. Finalmente, se examina la capacidad de los modelos desarrollados para adaptarse a datos genómicos reales, y se proponen recomendaciones para mitigar los posibles sesgos derivados del contenido de GC, mejorando la generalización de los modelos en contextos biológicos complejos. Este trabajo establece una base para futuras investigaciones en la predicción de promotores y el diseño de herramientas automatizadas en genómica. - Some of the metrics are blocked by yourconsent settings
Thesis Aprendizaje profundo para la electrostática de macromoléculas: resolviendo la ecuación de Poisson-Boltzmann a partir de redes neuronales informadas por la física(Universidad Técnica Federico Santa María, 2024-08) ;Achondo Mercado, Martín Andrés ;Mura Mardones, Joaquin Alejandro ;Departamento de Ingeniería MecánicaCooper Villagran, ChristopherLas Redes Neuronales Informadas por la Física (PINNs) se han aplicado con éxito a la resolución de Ecuaciones Diferenciales Parciales (PDEs), abriendo nuevas posibilidades en la computación científica. En este trabajo se propone una metodología basada en PINNs para resolver la Ecuación de Poisson-Boltzmann (PB), aplicada a moléculas de distintos tamaños bajo el modelo de solvente implícito. Se revisaron formulaciones de PB compatibles con PINNs, arquitecturas de red adecuadas y factores que inciden en la minimización. Los resultados muestran buenos niveles de precisión en la energía de solvatación y el potencial de reacción, con errores del orden de 10⁻³. La implementación efectiva requiere regularización de la ecuación y el uso de redes separadas por subdominios (soluto y solvente), además de una representación precisa de la geometría molecular mediante mallas finas. Se identificaron desafíos al incorporar integrales basadas en datos experimentales en la función de pérdida. Como resultado, se desarrolló la librería XPPBE, orientada a facilitar el uso de esta metodología por parte de la comunidad científica. - Some of the metrics are blocked by yourconsent settings
Thesis Arquitectura orientada a eventos para redes de sensores aplicada a control de tráfico(Universidad Técnica Federico Santa María, 2017-01) ;Estrada Irribarra, Nicolás Alejandro ;Monge Anwandter, Raul ;Departamento de InformáticaAstudillo, HernánLas arquitecturas dirigidas por eventos (EDA) comenzaron a desarrollarse a principios de este siglo y tomaron fuerza este último tiempo. En la búsqueda de una nueva propuesta en el ámbito de procesamiento de eventos complejos (CEP), este documento presenta una prueba de escalabilidad entre una arquitectura orientada a eventos y una tradicional utilizando datos sintéticos. Finalmente, se diseñó e implementó un prototipo orientado a eventos utilizando datos reales bajo una simulación trace-driven con el fin de procesar eventos en tiempo real y reconocer patrones complejos generando alarmas ante anomalías detectadas. Del presente estudio, se obtuvo que EDA se comporta de mejor forma que una arquitectura tradicional para sistemas basados en sensores. Además, el prototipo implementado para CEP fue capaz de procesar eventos y detectar anomalías en tiempo real sin acceder a una base de datos históricos. - Some of the metrics are blocked by yourconsent settings
Thesis Aspectos cosmológicos en la teoría de Lovelock-Cartan cinco-dimensional(Universidad Técnica Federico Santa María, 2017) ;Ramírez Carrasco, Francisca Gabriela ;Castillo Felisola, Oscar ;Departamento de FísicaZerwekh Arroyo, Alfonso RaulEste trabajo estudia la posibilidad de interpretar la expansión acelerada del universo como un efecto geométrico derivado de una teoría en un espaciotiempo de cinco dimensiones con torsión no nula. Se parte de la teoría de Lovelock-Cartan, aunque se encuentra que el término que involucra explícitamente la torsión es topológico y no contribuye a las ecuaciones de movimiento, por lo que se trabaja finalmente con una teoría de Lovelock en cinco dimensiones. Se realiza una compactificación tipo Kaluza-Klein sobre una dimensión extra con topología de círculo (M⁵ → M⁴ × S¹), considerando únicamente los modos cero para centrarse en el sector de baja energía. Utilizando el formalismo de primer orden con formas diferenciales, los campos resultantes provienen de las formas conexión de Lorentz y de los vielbein, que definen la estructura métrica del espacio-tiempo. Bajo el principio cosmológico (homogeneidad e isotropía), se imponen condiciones de simetría a través de las ecuaciones de Killing. Como resultado, las ecuaciones de campo reducidas presentan dos ramas de soluciones: una asociada a un punto de Chern-Simons, y otra que describe universos en expansión, contracción u oscilación. En estas soluciones, el tamaño de la dimensión extra se comporta de forma inversa al tamaño del espaciotiempo observable, modulada por el campo dilatón, dentro de ciertas regiones del espacio de parámetros. - Some of the metrics are blocked by yourconsent settings
Thesis Bayesian Black-Litterman under Nonlinear Dependence: A Hybrid Framework with GARCH-EVT Marginals, R-Vine Copulas, and Reinforcement Learning for Tactical Portfolio Allocation(Universidad Técnica Federico Santa María, 2025-10-07) ;Mora Rojas, Felipe Ignacio ;Escudero Barros, Felipe Andres ;Departamento de IndustriasKristjanpoller Rodriguez, Werner DavidLos marcos tradicionales de optimización de portafolios basados en media-varianza enfrentan dificultades para capturar dependencias no lineales y riesgos de cola, particularmente durante turbulencia del mercado. Este estudio propone un marco híbrido que integra cinco metodologías avanzadas: modelamiento marginal GARCH-EVT, cópulas R-vine, optimización bayesiana Black-Litterman, ensambles de aprendizaje profundo, y aprendizaje por refuerzo. Los modelos GARCH(1,1) con Teoría de Valores Extremos capturan clustering de volatilidad y colas pesadas, mientras que las cópulas R-vine descomponen la estructura de dependencia de 27 dimensiones en 351 pair-copulas optimizadas. Las views de inversionistas se generan mediante un ensamble de modelos LSTM, Transformer, y XGBoost, integrados en un marco bayesiano Black-Litterman, y desplegados a través de Optimización de Política Proximal para rebalanceo adaptativo. Utilizando 15.5 años de datos diarios (2010-2025) para 27 acciones principales de EE.UU. bajo un diseño walk-forward, la estrategia BL-RL propuesta logra un ratio de Sharpe de 0.910, superando significativamente los benchmarks tradicionales con ratios de Sharpe negativos (Reality Check p = 0.023). También demuestra protección mejorada a la baja (drawdown máximo -7.32\% vs. -16.59\% a -19.58\%) y resiliencia durante la caída del COVID-19 y el mercado bajista de 2022. Estos resultados subrayan el potencial de integrar técnicas estadísticas avanzadas, aprendizaje automático, y aprendizaje por refuerzo dentro de un marco bayesiano para gestión institucional robusta de portafolios.