Tesis de Postgrado
Permanent URI for this collectionhttps://cris.usm.cl/handle/123456789/276
Browse
Browsing Tesis de Postgrado by Title
Now showing 1 - 20 of 331
- Results Per Page
- Sort Options
- Some of the metrics are blocked by yourconsent settings
Thesis 2-Step Evolutionary Algorithm for the generation of dungeons with lock door missions using horizontal symmetry(Universidad Técnica Federico Santa María, 2024-11) ;Dumont Ortiz, Felipe Antonio ;Montero Ureta, Elizabeth Del Carmen ;Departamento de Informática ;Riff Rojas, Maria CristinaAraya, IgnacioEsta tesis examina la generación procedural de contenido en videojuegos, enfocándose en la creación de niveles y mazmorras. Primero, se analizan las técnicas generales de generación procedural, seguidas de un estudio más detallado sobre la generación de niveles. El trabajo principal se centra en un Algoritmo Evolutivo de 2 Pasos (2-Step EA) para generar mazmorras con misiones de llaves y barreras. La primera fase del algoritmo configura el diseño básico de la mazmorra, y la segunda fase asigna llaves y barreras estratégicamente. Los resultados muestran que el algoritmo propuesto es efectivo en producir mazmorras de alta calidad y eficientes computacionalmente. Este enfoque ofrece una metodología sólida para la generación procedural de contenido dinámico. - Some of the metrics are blocked by yourconsent settings
Thesis 3D numerical analysis of pile-supported excavations under bidirectional seismic loading(Universidad Técnica Federico Santa María, 2024-08) ;Llanquilef Navarro, Belén Noemí ;Departamento de Obras CivilesUbilla Villagran, JavierLos sistemas de sostenimiento con pilotes anclados discontinuos se utilizan con frecuencia en excavaciones profundas temporales en Santiago de Chile, debido a las condiciones geológicas caracterizadas por suelos gravo-arenosos rígidos y un nivel freático profundo. Esta investigación presenta un estudio integral que incluye el desarrollo de un modelo 3D para simular este tipo de excavaciones con pilotes anclados discontinuos. Se emplea el modelo constitutivo HS-Small para replicar con precisión las propiedades del suelo gravoso de Santiago, utilizando parámetros calibrados en base a ensayos geofísicos y de laboratorio de investigaciones previas. El objetivo principal del estudio es realizar un análisis dinámico utilizando dos ondas tipo Ricker y ondas sísmicas aplicadas en dos direcciones. Este análisis busca simular eventos sísmicos reales y evaluar la integridad estructural de los sistemas de sostenimiento bajo tales condiciones. Se emplean técnicas computacionales avanzadas para modelar con precisión el comportamiento de estos sistemas. Además, los resultados de los análisis dinámicos se comparan con las normativas chilenas para evaluar el desempeño estructural. Esta comparación es clave para determinar si las normas son conservadoras y si los sistemas cumplen con los criterios de seguridad y rendimiento requeridos. Los resultados obtenidos de los análisis dinámicos y la comparación con las normativas chilenas aportan información valiosa sobre el comportamiento y la eficacia de los sistemas de pilotes anclados discontinuos bajo cargas dinámicas. Se observa que los pilotes ubicados en esquinas experimentan menores desplazamientos y fuerzas internas, pero mayores empujes de suelo. Además, en algunos escenarios, las presiones del suelo inducidas dinámicamente superan las calculadas por la normativa, lo que sugiere oportunidades de mejora en las prácticas de diseño. - Some of the metrics are blocked by yourconsent settings
Thesis A High-Performance Implementation of a Simplified Coupled Wildfire-Atmosphere Mathematical Model(Universidad Técnica Federico Santa María, 2025-11-03) ;San Martin Reyes, Daniel Eduardo ;Sauer, Timothy ;Ayala, Orlando ;Leon Vasquez, Roberto Jesus ;Fuentes Castillo, Andres Hernan ;Departamento de InformáticaTorres Lopez, Claudio EstebanLos incendios forestales representan una problemática ambiental global con fuerte impacto en Chile, donde cada año se pierden miles de hectáreas de bosques. Este fenómeno provoca pérdida de biodiversidad, degradación del aire, alteración de los ciclos hídricos y daños graves a los ecosistemas, generando además impactos económicos y sociales. A nivel mundial, cerca del 75% de los incendios tienen origen humano; en Chile, según la CONAF, el 99,7% son causados por acción o negligencia humana. Entre 1963 y 2024 se registraron más de 283.000 incendios, con más de 4 millones de hectáreas afectadas. Con el fin de comprender y mitigar esta problemática, se han desarrollado diversos modelos matemáticos y herramientas computacionales. La presente investigación se enfoca en los modelos de propagación físicos acoplados, los cuales integran la dinámica de la atmósfera baja con la propagación del fuego, incorporando además los efectos de retroalimentación entre ambos procesos. A pesar de la existencia de múltiples implementaciones de estos modelos, solo una fracción se encuentra disponible en formato de código abierto. Este proyecto propone un método numérico y desarrolla una implementación de código abierto basada en un modelo físico simplificado y en técnicas de dinámica de fluidos computacional. Dada la naturaleza del algoritmo, la implementación se realizará en unidades de procesamiento gráfico (GPU) con el objetivo de reducir los tiempos de las simulaciones numéricas. De este modo, se busca facilitar estudios intensivos sobre incendios forestales, alcanzando tiempos de ejecución considerablemente menores en comparación con implementaciones en CPU. - Some of the metrics are blocked by yourconsent settings
Thesis A Mathematical and Computational Model for Multiple Collisions of Rigid Bodies: An Extension of A-CD2 Method(Universidad Técnica Federico Santa María, 2016-07) ;León Vásquez, Roberto Jesús ;Solar Fuentes, Mauricio ;Departamento de Informática ;Salinas Carrasco, LuisTorres Lopez, Claudio EstebanUna extensión de un modelo matemático y simulaciones computacionales para colisiones múltiples de cuerpos rígidos es presentada en este trabajo El método A-CD2 entrega una descripción mecánica para colisiones instantáneas entre cuerpos rígidos. La solución de un problema de optimización con restricciones es requerida para obtener las nuevas velocidades de los cuerpos rígidos después de una colisión. La extensión a este método incluye el uso de las ecuaciones de Euler para modelar las velocidades angulares, esto produce velocidades angulares no constantes cuando los momentos de inercia son distintos. Si los momentos de inercia son iguales, se obtienen velocidades angulares constantes. Esta extensión considera también una reducción en la complejidad computacional del algoritmo original. La complejidad computacional ha sido reducido de un algoritmo O(N2) a un algoritmo O(N). Esta reducción permite manejar problemas 20 veces más grandes que la implementación original. Finalmente se presentan simulaciones numéricas sobre una estructura granular, un evento real de una avalancha y la constitución de capas granulares. - Some of the metrics are blocked by yourconsent settings
Thesis A Search For Vector-Like Lepton with Long-Lived Particles in the CMS Detector(Universidad Técnica Federico Santa María, 2025-07-03) ;Vega Sepúlveda, Valentina Nicole ;Tapia Araya, Sebastián ;Garay, Francisca ;Departamento de Física ;Brooks, WilliamPeña, CristianThis thesis presents the development and results of a search for long-lived particles (LLPs) decaying into electromagnetic final states, motivated by a simplified model involving heavy vector-like leptons (VLLs). The analysis is based on the full Run 2 dataset recorded with the CMS detector at the CERN LHC, corresponding to an integrated luminosity of 138 fb−1 at √s = 13 TeV. The search targets displaced electromagnetic showers produced by LLP decays into photon pairs (aτ → γγ), reconstructed exclusively in the muon detectors. To identify these events, dedicated reconstruction algorithms were developed to cluster energy deposits in the Drift Tube (DT) and Cathode Strip Chamber (CSC) systems, independent of tracking information. Backgrounds are estimated using a data-driven technique based on a parametric transfer factor derived from control regions. A comprehensive study of systematic uncertainties was carried out. The results set the first experimental constraints on this model, excluding VLL masses up to 700 GeV for proper decay lengths around 0.005–2.4 meters. These findings demonstrate the effectiveness of using the muon system to explore signatures of new physics beyond the Standard Model. - Some of the metrics are blocked by yourconsent settings
Thesis A Two–Stage Model Predictive Control Strategy for Three–level NPC Converters based on Multistep Finite Control Set and Optimal Pulse Patterns(Universidad Técnica Federico Santa María, 2023-11) ;González Duguet, Cristóbal Alejandro ;Departamento de Ingeniería EléctricaAngulo Cardenas, Alejandro AlbertoLa transferencia de energía entre fuentes de energía y el sistema eléctrico debe cumplir con una larga y rigurosa lista de requisitos técnicos y operacionales. En este contexto, los convertidores de tres niveles con punto neutro comprimido conectados a la red mediante filtro LCL se han convertido en una configuración popular para aplicaciones de alta potencia y voltaje medio, como la integración de recursos energéticos distribuidos. La presencia del filtro LCL aumenta la complejidad del sistema de control cuando se utilizan esquemas de control lineales tradicionales, por lo que las estrategias de control predictivo de modelo (MPC, por sus siglas en inglés) surgen como una alternativa conveniente debido a que han demostrado una excelente capacidad de seguimiento de referencia y una rápida respuesta dinámica. Sin embargo, la complejidad computacional de las estrategias MPC se convierte en un problema, ya que las plataformas de control comerciales deben ejecutar los cálculos en tiempo real en decenas de microsegundos. Entre las estrategias MPC disponibles, el MPC de conjunto de control finito multietapa (MFCS, por sus siglas en inglés) ha demostrado ser una opción viable en cuanto a carga computacional. No obstante, los controladores MFCS no generan voltajes periódicos ni simétricos entre las fases del sistema, lo que da lugar a espectros de Fourier continuos en los estados del sistema, lo que es un inconveniente fundamental para aplicaciones conectadas a la red, ya que los códigos de red imponen límites sobre las amplitudes admisibles de los componentes armónicos de las corrientes de la red. Por otro lado, los patrones de pulsos óptimos (OPP, por sus siglas en inglés) garantizan una frecuencia de conmutación baja y fija de los semiconductores, minimizando la distorsión de las variables de estado. Sin embargo, las formulaciones actuales de los OPPs asumen que el sistema puede modelarse como una carga puramente inductiva, lo que llevaría a un rendimiento subóptimo y no permitiría agregar restricciones que aseguren el cumplimiento de los códigos de red respecto a las corrientes de la red. Este trabajo propone integrar dos etapas de optimización que aborden diferentes objetivos de control en un único marco de control generalizado. Este marco se utilizó para desarrollar una estrategia de control (OPP-MFCS) que combina los beneficios de los OPP y los controladores MFCS. Para ello, se propuso una nueva formulación para los OPPs considerando el modelo del filtro LCL, lo que permite la minimización directa de la distorsión total de demanda (TDD) de las corrientes de la red mientras se garantiza que se cumplan los límites admisibles para los componentes armónicos. Además, al formular un controlador MFCS con horizonte de predicción de tamaño variable, fue posible extender el tiempo cubierto por el horizonte de predicción sin carga computacional adicional. Esta mejora permitió un mejor rendimiento del controlador tanto en las respuestas transitorias como en estado estable del sistema. Se realizaron análisis exhaustivos de las contribuciones de los OPPs, los controladores MFCS y la estrategia OPP-MFCS. La estrategia OPP-MFCS fue probada mediante simulaciones y experimentos con hardware en el lazo, mostrando su capacidad para cumplir con la norma técnica IEEE Std. 519-2022 mientras el convertidor opera a una frecuencia de conmutación baja y fija, con voltajes periódicos y simétricos, cumpliendo con todos los objetivos de control definido - Some of the metrics are blocked by yourconsent settings
Thesis A variational approach to a cumulative distribution function estimation problem under stochastic ambiguity(2022) ;Urrea Castillo, Fernanda Paz ;Briceño Arias, Luis Manuel ;Departamento de MatemáticaDeride Silva, Julio AlejandroEn esta tesis se propone un método para el problema de estimación de funciones de distribución de probabilidad bajo ambigüedad estocástica. La ambigüedad estocástica está representada por un conjunto de incertidumbre en el que se debe encontrar la función de distribución acumulada y el método propuesto considera a las funciones de distribución acumulada como un subconjunto de una clase más grande de funciones, el espacio de las funciones semicontinuas superior. Presentamos varios resultados para introducir las propiedades topológicas del espacio y también para justificar nuestra elección del espacio. Las herramientas utilizadas para desarrollar este método se basan en la teoría del análisis variacional. En particular, trabajamos sobre el espacio de las funciones semicontinuas superior dotado de la distancia de Attouch Wets para las que se propone una aproximación y en conjunto con el uso de epi-splines (funciones polinomiales a trozos) impulsan un esquema de aproximación lineal a nuestro enfoque. Implementamos un algoritmo para el caso bivariado que nos permite calcular soluciones al problema aproximado así como también incorporar información suave y condiciones de crecimiento al modelo. Enunciamos condiciones que garantizan la convergencia de los minimizadores cercanos de la sucesión de problemas aproximados en soluciones para el problema original y entregamos una clase de funciones que satisfacen aquella condición. Probamos nuestro algoritmo a modo de prueba de concepto con dos ejemplos distintos, donde analizamos varios parámetros y también realizamos experiencias numéricas para el problema de estimación de la posición de un vehículo submarino no tripulado dadas fuentes de información ruidosas. - Some of the metrics are blocked by yourconsent settings
Thesis Adaptación de fórmulas empíricas enfocadas en la generación de curvas para la evaluación temprana de tsunamis basadas en Intensidad Modificada de Mercalli.(2017) ;Baquedano Caprile, José Luis ;Departamento de Obras CivilesCatalan Mondaca, Patricio AndresIn recent years, Chile has been exposed to an important number of strong earthquakes that havetriggered tsunamis of different amplitudes and extension. Notable examples include the Maule earthquake(Mw 8.8), which took place on February 27th, 2010; the Iquique earthquake (Mw 8.2), on April1st, 2014; and the Illapel earthquake (Mw 8.3), on September 16th, 2015. These events permittedthe identification of some weaknesses of the then existing Chilean Tsunami Warning System, and thecreation of an improvement strategy that has been implemented recently, which corresponds to theIntegrated System of Tsunami Predicion and Alert (SIPAT, in Spanish). Despite these improvements,there is still some uncertainty regarding to the exact area potentially affected by a tsunami immediately,and more importantly, a finite time before solutions are found. These difficulties are mainlydue to the time restraints of the way the information flows between the three entities in charge of theevaluation (ONEMI, CSN and SHOA), and the time required to process the data. Hence the necessityof a supplementary evaluation method that helps define the evacuation area.In this work, an analysis of the potential relation between the intensity of an earthquake (via theModified Mercalli Intensity, MMI) and the occurrence of a tsunami and its expected wave amplitudeis performed, taking into account the distance from the point of interest to the hypocenter and theearthquake magnitude. Thus, the objective is to test whether the Mercalli Intensity Scale can be usedas a tool to support the existing system from a technical point of view, during the period when noother technical assessment is available.First, a series of empirical formulae relating the intensity with either Peak Ground Accelerationor Peak Ground Velocity, and others that relate PGA or PGV with the parameters that define theearthquake (e.g. depth, magnitude, dip, strike, among others) are tested and calibrated. To performthis, data available from earthquakes occurred between 2011 and 2014 are used. In order to validateour scheme, additional data from 2015 earthquakes are utilized. The result is an empirical relationshipbetween MMI, hypocentral distance and earthquake magnitude.Next, to obtain the corresponding tsunami hazard, numerical simulations of a range of scenariosare performed to ensure data coverage and statistical robustness. Here, a series of points of interestlocated around nine coastal cities are considered to create city-specific charts which relate tsunamihazard with magnitude and hypocentral distance. A city-specific approach is used under the premisethat a tsunami would vary greatly in different locations, even under the same source conditions, dueto bathymetric and topographic controls.Through the completion of the aforementioned steps, an additional way to evaluate the risk of atsunami after a considerably large seismic event is available for use and, in consequence, the currentevaluation system is reinforced, improving the preparation and response times against an eventual emergency. - Some of the metrics are blocked by yourconsent settings
Thesis Adapting bipedal neuro-motor policies on planned footsteps(2024-04) ;Rojas Sánchez, Miguel Yerón ;Vásconez, Juan Pablo ;Departamento de Electrónica ;Creixell Fuentes, Werner UweAraya Lopez, Mauricio AlejandroThis study investigates a hierarchical reinforcement learning approach to achieve human-like walking in bipedal robots while following marked footsteps. Traditionally, state machines and model-based methods were used for this task, ensuring stability and safety but lacking natural human-like motion. Our approach utilizes a two-level architecture: a high-level policy trained specifically for following footsteps and a low level policy distilled from motion capture data to generate natural gaits. Experiments demonstrate that this hierarchical approach significantly outperforms training a single network, particularly for complex tasks on human-sized robots. The low-level network plays a crucial role, substantially reducing joint torques and speeds while achieving stable walking. However, a current limitation is the inability to follow footsteps on stairs. We observed that both general and locomotion motion capture datasets achieved similar results in following footsteps, but the locomotion dataset generated more visually natural human-like walking, especially for forward walking. Future work will aim to improve the robot’s walking robustness for navigating uneven terrains like stairs and slopes. Our findings suggest that low-level networks pre-trained on motion capture data are a viable approach for achieving human-like walking gaits in real-world, human-sized robots. This research paves the way for developing bipedal robots with efficient and natural walking capabilities. Accompanying videos1 and code2 are available online. - Some of the metrics are blocked by yourconsent settings
Thesis Adaptive dynamic compensation for real-time hybrid simulation testing(Universidad Técnica Federico Santa María, 2021-08) ;Gálmez Villaseca, Cristóbal Gonzalo ;Departamento de Obras CivilesFermandois Cornejo, Gaston AndresLa simulación híbrida en tiempo real (Real-Time Hybrid Simulation, RTHS) es una técnica experimental utilizada para estudiar estructuras sometidas a excitaciones dinámicas, donde una subestructura se ensaya físicamente y el resto se modela numéricamente. La precisión y estabilidad del ensayo dependen de minimizar errores de sincronización entre los subdominios numérico y experimental. Este estudio propone un método de compensación adaptativa para diseñar un controlador independiente de la subestructura experimental, el cual no requiere ensayos previos para su calibración. Las condiciones iniciales se definen mediante un modelo del sistema de transferencia sin interacción física, y se ajustan en tiempo real durante el ensayo. La metodología se valida mediante simulaciones numéricas en un problema de referencia virtual (benchmark) de RTHS, considerando escenarios con múltiples subestructuras experimentales, incluso no lineales. Además, se desarrolla un indicador de estabilidad en línea basado en métodos energéticos, capaz de prevenir daños por desplazamientos excesivos. Los resultados demuestran que la estrategia propuesta mejora significativamente la precisión, robustez y seguridad del ensayo RTHS. - Some of the metrics are blocked by yourconsent settings
Thesis Advanced trans-domain knowledge transfer through transformer-based distillation: a novel framework for image-LiDAR integration in autonomous systems(Universidad Técnica Federico Santa María, 2025-03-11) ;Ortiz Sandoval, Jesus Eduardo ;Departamento de ElectrónicaCreixell Fuentes, Werner UweRecent advances in deep learning have significantly improved the performance of image classification models, yet adapting these models to fundamentally different data types—such as point clouds from Light Detection and Ranging (LiDAR) sensors—remains a challenging task. This thesis addresses that challenge by exploring trans-domain knowledge distillation: transferring capabilities learned from well-established image classification networks to LiDAR point cloud classification. Building on insights gained from earlier research on partial discharge (PD) signal generation using Deep Convolutional Generative Adversarial Networks (DCGANs), our approach leverages adversarial learning principles to preserve domain-specific features during knowledge transfer. Central to this work is a transformer-based distillation framework that aligns the rich feature representations of teacher models (trained on image datasets) with the unique spatial and structural characteristics of LiDAR point clouds. This transformer architecture employs multi-head attention mechanisms to maintain both global structure and local detail—an insight originally derived from our GAN-based PD signal synthesis, where temporal and spectral fidelity proved essential for realistic data generation. Through rigorous experimental validation on benchmark datasets, our distilled models achieve an F1-score of 90.4. Beyond immediate performance gains, this research underscores the versatility of knowledge distillation techniques for trans-domain adaptation. It illustrates how established models trained on high-fidelity image data can enhance the interpretative power of LiDAR-based classifiers, significantly reducing the reliance on large-scale annotated point cloud datasets. Additionally, the thesis explores the impact of optimizing distillation parameters—such as temperature and weighting factors—and highlights the potential of self-supervised learning for scenarios where annotated teacher data are scarce. The proposed methodology has broad applicability, potentially extending beyond the fusion of image and LiDAR domains to other fields characterized by data disparities in availability, frequency, and richness. Ultimately, this work lays the groundwork for more robust, efficient, and cost-effective perception systems that can accelerate the deployment of intelligent, real-time applications such as autonomous driving and beyond. - Some of the metrics are blocked by yourconsent settings
Thesis Agujeros negros con pelo y dualidad ADS/CFT(Universidad Técnica Federico Santa María, 2016-11) ;Choque Quispe, David ;Departamento de FísicaAstefanesei, Dumitru (Pontificia Universidad Católica de Valparaíso)La dualidad AdS/CFT es una realización concreta del principio holográfico. Es una herramienta muy eficaz para extraer información de teorías gauge fuertemente acopladas (en dimensiones) de una teoría gravitacional clásica (en d+1 dimensiones). Los agujeros negros asintóticamente AdS juegan un rol importante en el entendimiento de la dinámica y termodinámica de las teorías del campo holográficas duales. En particular, estos agujeros negros son duales a los estados térmicos de la teoría del campo del borde. Los campos desenpeñan un rol importante en cosmología para modelar la materia oscura, en física de altas energías la partícula de Higgs es escalar. Consideramos teorías de campos escalares mínimamente acoplados a la gravedad con potenciales (escalares) no-triviales. Calculamos la acción on-shell regularizada con el método de renormalización holográfica y de esta obtenemos las cantidades termodinámicas de soluciones exactas de agujeros negros. Estudiamos los diagramas de fase de estos agujeros negros y sus interpretaciones en la teoría del campo dual. Construimos el tensor de stress de Brown-York y calculamos la masa (holográfica). A continuación, para una solución general, calculamos la masa holográfica, la masa Hamiltoniana y vemos que concuerdan para cualesquiera condiciones de borde. Estudiamos la anomalía de traza y su contribución no-trivial a la masa. Estos resultados fueron anteriormente publicados en [1-3]. - Some of the metrics are blocked by yourconsent settings
Thesis Ajustando la similaridad intra-modal en un entrenamiento cross-modal basado en tripletas(Universidad Técnica Federico Santa María, 2024) ;Mallea Ruz, Mario Carlos ;Solar Fuentes, Mauricio ;Departamento de Informática ;Ñanculef Alegria, Juan RicardoAraya Lopez, Mauricio AlejandroContent-Based Image Retrieval (CBIR) es un técnica que permite ingresar como consulta una imagen, y recuperar las imágenes visualmente más parecidas a la con sulta en una base de datos. Una técnica relaciona es el Cross-modal retrieval (CMR), este permite consultar en una modalidad (ej: texto) y recuperar información en otra modalidad (ej: imágenes). Con el rápido crecimiento del contenido multimedia, CBIR y CMR se han convertido en tecnologías esenciales para construir sistemas de infor mación en varios dominios, como: social networks, online retail, remote sensing , y medicine. - Some of the metrics are blocked by yourconsent settings
Thesis Ajuste, aplicación y sensibilización de métodos de valorización de los activos viales de pasarelas peatonales concesionadas(Universidad Técnica Federico Santa María, 2024-08) ;Segura Iturrieta, Rudy Alberto ;Departamento de Obras CivilesOsorio Lird, AleliLa valorización de activos busca estimar el valor monetario de infraestructura física, como las pasarelas peatonales en rutas concesionadas, siendo clave en la gestión vial. En Chile, la metodología actual fue diseñada para la red no concesionada, por lo que no responde a los objetivos específicos de las concesiones interurbanas. Esta tesis propone un modelo de valorización ajustado a los componentes del activo pasarelas (estructura, accesorios, iluminación, paraderos y aceras), basado en métodos de Depreciación Lineal (DL), Valor Ajustado Respecto a la Condición Límite (VARCL) y Valor Fijo Respecto a la Condición Límite (VFRCL). El modelo se valida y sensibiliza con datos reales de carreteras concesionadas chilenas. Los resultados muestran que el modelo supera en exactitud y precisión a las metodologías vigentes, gracias a la obtención de Costos Históricos específicos y al uso de índices de condición que reflejan mejor la integridad funcional del activo. Además, su implementación en bases de licitación permitiría evaluar la gestión del concesionario en la conservación del valor de los activos, siempre que se garantice el correcto procesamiento de la información y el diseño de mecanismos de incentivo y penalización. - Some of the metrics are blocked by yourconsent settings
Thesis Algoritmo de Reconstrucción para la Identificación y Segregación de Partículas de Altas Energías en un detector preshower(2017) ;Pavez Sepúlveda, Juan Guillermo ;Valle, Carlos ;Departamento de Informática ;Allende Olivares, HectorHakobyan, HaykLa detección de partículas es un trabajo muy importante en campos como la física dealtas energías, la medicina y la astronomía. El proceso de detección consiste en identificarlas partículas producidas en distintos fenómenos físicos, como por ejemplo, las partículasproducidas en los grandes colisionadores. El proceso de detección, sin embargo, es complicadoy depende de muchos factores. Un caso especialmente difícil es la detección de partículasmuy cercanas provenientes, por ejemplo, del decaimiento de piones neutros. Para solucionareste problema el centro Científico y Tecnológico de Valparaíso ha propuesto un detectordel tipo calorímetro preshower, diseñado especialmente para tener una alta resolución en laidentificación de partículas cercanas. La solución de este problema tiene varias aplicacionesprácticas: En los colisionadores electron-ion puede ayudar al estudio de los gluones, elmaterial que une toda la materia del universo; En la medicina nuclear puede ayudar amejorar las imágenes producidas en las tomografías por emisión de positrones, vitales en eltratamiento del cancer.Para procesar los datos producidos por el detector se utiliza un algoritmo de reconstrucción.Este algoritmo es el encargado de convertir los datos brutos en información útil de lapartícula detectada, como su posición de incidencia, su energía o su ángulo.La contribución principal de este trabajo es el diseño e implementación de un algoritmode reconstrucción completo para el detector preshower. Para esto, las diferentes opcionesde la literatura son estudiadas y nuevas soluciones son propuestas para el trabajo dereconstrucción. Además, se construye una simulación computacional del detector y seestudia, mediante simulaciones, el desempeño del algoritmo de reconstrucción. Los resultadosobtenidos muestran la capacidad del detector preshower para identificar partículas cercanas,superando otras propuestas de la literatura. Además, basándose en este análisis, se proponenposibles mejoras al detector, las cuales pueden ser implementadas en próximas iteracionesdel diseño del detector. - Some of the metrics are blocked by yourconsent settings
Thesis Algoritmo multi-fuente de imputación de datos faltantes basado en algoritmo EM y vecinos recomendados(Universidad Técnica Federico Santa María, 2025-06-12) ;Campos Chartier, Sergio Manuel ;Sotelo Parraguez, Julio Andres ;Departamento de InformáticaAllende Olivares, HectorEn los problemas de Machine Learning, la presencia de datos faltantes es un desafío común, especialmente cuando las variables del estudio provienen de múltiples fuentes de información. Cada fuente puede tener distintos formatos, niveles de precisión y frecuencias de actualización, lo que genera inconsistencias y vacíos en los datos recopilados. Por ejemplo, en un sistema de predicción de demanda que depende de datos meteorológicos, económicos y de redes sociales, algunas fuentes pueden proporcionar información en tiempo real, mientras que otras pueden presentar retrasos en las actualizaciones o contener valores faltantes debido a errores de registro. Estas discrepancias pueden afectar la calidad del modelo, reduciendo su capacidad predictiva y aumentando la incertidumbre en los resultados. Por lo tanto, es fundamental aplicar estrategias como la imputación de datos si se desea realizar una tarea de aprendizaje supervisado, como regresión o clasificación, sin perder datos en el proceso. El algoritmo de Expectation Maximization (EM) ha sido utilizado con éxito para manejar valores faltantes, pero no está diseñado para escenarios típicos de Machine Learning, donde se crea un modelo de imputación sobre los datos de entrenamiento y luego se aplica a un conjunto de prueba. En este trabajo, proponemos EMreg-KNN, un novedoso algoritmo de imputación supervisado y de múltiples fuentes. Basado en el algoritmo EM y en el concepto de vecinos recomendados, EMreg-KNN construye un modelo de conjunto basado en regresión para la imputación de datos futuros, lo que permite la utilización posterior de cualquier método de Machine Learning basado en vectores para evaluar automáticamente tareas de clasificación. Para evaluar esta propuesta, se utilizan tres bases de datos diferentes con datos faltantes y cuatro algoritmos de clasificación. El método propuesto competirá con otros métodos de imputación para garantizar que los algoritmos de clasificación ofrezcan los mejores resultados según métricas ROC. EMreg-KNN obtiene mejores resultados en la mayoría de los escenarios. Además, los clasificadores muestran un comportamiento más estable gracias a la imputación de los valores faltantes. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis de estabilidad en cuerda para pelotones de vehículos con canales de comunicación afectados por ruido aditivo(2023-06-19) ;Gordon Almeida, Marco Anthony ;Departamento de ElectrónicaVargas Parra, Francisco JavierLa propiedad de estabilidad en cuerda de los sistemas interconectados es fundamental en las aplicaciones de pelotones de vehículos. La presente tesis está enfocada en acortar la brecha en la literatura relacionada con la noción de estabilidad en cuerda cuando los fenómenos estocásticos son una parte inherente del problema. El pelotón bajo análisis está formado por vehículos modelados como sistemas lineales, con topología de seguimiento al predecesor, cuya comunicación se lleva a cabo a través de canales afectados por ruido blanco aditivo. Las dos principales contribuciones son: (a) caracterizar la evolución de la media y la varianza del error de seguimiento de cada vehículo, obteniendo así las condiciones necesarias y suficientes que garantizan la estabilidad en cuerda en dicho escenario estocástico y (b) proponer una definición técnica que permita la evaluación analítica de la propiedad de estabilidad en cuerda. Mediante simulaciones se ilustra el comportamiento del pelotón para los casos estable e inestable en cuerda. Dada la generalidad, tanto de la definición propuesta, como de la metodología de estudio, se espera que este trabajo sirva de guía para el análisis de estabilidad en cuerda en diferentes escenarios estocásticos como por ejemplo: pérdida aleatoria de datos, retardos de tiempo aleatorios, entre muchos otros problemas de comunicación. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis de fallas en estaciones de carga rápida para vehículos eléctricos(Universidad Técnica Federico Santa María, 2025-05-27) ;Palacio Aguilera, Alexander Brian ;Renaudineau, Hugues ;Alcaide, Abraham M. (Universidad de Sevilla) ;Departamento de Electrónica ;Kouro Renaer, Samir FelipeKouro Renaer, Samir FelipeEs innegable el potencial e incremento de los vehículos eléctricos en el transporte, dado que es un componente vital para la descarbonización y transición energética. Esto se condice con una gran demanda en la infraestructura de carga, la cual posee una gran relevancia para una expansión de un medio de transporte descarbonizado. Es por ello que es necesario no solamente considerar el incremento de dicha infraestructura, sino que también es necesario extender la vida útil de la ya existente. Hay una diversa variedad de perfiles de carga capaces de alimentar las baterías de vehículos eléctricos, las cuales son diseñadas teniendo en cuenta consideraciones físico-químicas de las baterías de ion-litio. Existe un amplio espectro de investigaciones en relación con los perfiles de carga que se han hecho al respecto desde el punto de vista de las baterías. Sin embargo, faltan precedentes que detallen cómo estos perfiles impactan en las estaciones de carga rápida. En este trabajo se tiene como objetivo principal llevar a cabo un estudio del impacto de perfiles de carga de baterías en estaciones de carga de vehículos eléctricos a través del análisis de acumulación de daño en los semiconductores de dichas estaciones. Con ello se pretende determinar qué perfil de carga podría extender la vida útil y aumentar la confiabilidad y disponibilidad de esta importante infraestructura de transición energética. La principal razón de fallas en los semiconductores son los ciclos térmicos, dado en gran medida a la fatiga que producen en los materiales del encapsulado debido a la expansión y compresión de los mismos, sobre todo en el punto de juntura del MOSFET. Es por ello que en este trabajo se obtiene la temperatura del punto de juntura a través del análisis de Cauer, el cual es alimentado por las pérdidas que se producen en los semiconductores durante todo el proceso de carga. Para lograr un análisis detallado del impacto que se tiene en los semiconductores, en primera instancia se debe determinar qué factores se van a considerar y bajo qué circunstancias de operación. Para poder tener un análisis que represente diferentes temperaturas ambientes, se obtendrán datos bajo tres condiciones climáticas: una de 10°C, otra de 20°C y otra de 30°C. Esto es para poder observar el impacto que tiene la temperatura ambiente en los ciclos térmicos de los semiconductores. Para un análisis en el que se consideren el tipo de configuración, así como el impacto que se tiene en la potencia de los semiconductores, se estudian dos convertidores: el Terra HPC150 de la empresa ABB y el Supercharger de la empresa Tesla. A los MOSFET seleccionados para el análisis se les obtienen las pérdidas durante diferentes etapas del proceso de carga para así simular las pérdidas obtenidas durante todo el proceso. Para este propósito se usan herramientas como PLECS, Matlab y Simulink, dado que son necesarias para el manejo de datos que se emplea. En la práctica y en la literatura existe un amplio desarrollo de perfiles de carga, para el propósito de esta tesis se emplearán los más comunes, Constant Current-Constant Voltage (CC-CV), Multi-Stage Constant Current (MSCC), Boost Charging (BC) y Pulse Charging (PC). Para los cuales se empleará el ratio C para medir las corrientes, en donde 1C equivale a la corriente necesaria para cargar la batería completamente en una hora. Para el caso del convertidor de ABB, dado a las limitaciones de potencia, se emplearán corrientes de 1C y 2C. En el caso de Tesla, se consideran los perfiles de manera bastante similar a los de ABB, pero en vez de que se realice con corrientes máximas de 2C, se realiza con 3C, esto debido a que el convertidor puede entregar mayor potencia a las baterías. Los resultados obtenidos en la tesis muestran una similitud bastante evidente entre los perfiles con baja corriente en los convertidores. Esto se debe principalmente a las formas parecidas en que se comportan, así como a la manera en que se construyen los vectores de pérdidas de potencia a lo largo del ciclo de carga. En cuanto a las corrientes más altas, es decir, entre los perfiles CC-CV, MSCC y BC, este fenómeno se repite. Sin embargo, en cuanto al perfil de carga PC, se muestra un evidente deterioro de los semiconductores, superando con creces a los demás perfiles. También se aprecia el impacto que la frecuencia produce en los semiconductores, ya que el pulso de 25 Hz es menos dañino que el caso de 1 Hz. Esto se debe principalmente a que la frecuencia, sobre todo por la inercia térmica del disipador, está directamente relacionada con el tamaño de los ciclos térmicos. Los pulsos de corriente de 1 Hz son causantes de ciclos de temperaturas que pueden llegar a tener más de 70 °C de diferencia, mientras que en el caso de 25 Hz, la diferencia llega a solo 20 °C. La principal conclusión del estudio indica que el perfil de carga que presenta un mayor daño acumulado al punto de juntura de los MOSFET es el PC. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis de la variación en la fracción de amortiguamiento modal de estructuras de marcos de acero debido a daños en particiones de yeso(Universidad Técnica Federico Santa María, 2024-09) ;Jouvhomme Vera, Rosario Sophie ;Departamento de Obras CivilesCruz Doggenweiler, Cristian EmanuelLa fracción de amortiguamiento representa matemáticamente las fuentes de disipación de energía no incluidas explícitamente en el modelo estructural, como el amortiguamiento inherente de materiales, fricción entre componentes, interacción suelo-estructura no modelada y deterioro de elementos no estructurales, como los tabiques de yeso. Recientemente, guías de diseño por desempeño en California proponen aumentar esta fracción con la intensidad sísmica, especulando que el daño en elementos no estructurales incrementa su contribución. Sin embargo, no existen estudios que cuantifiquen este efecto. Este trabajo tiene como objetivo cuantificar la variación de las fracciones de amortiguamiento modal debido al deterioro de tabiques de yeso, y su relación con la amplitud de respuesta estructural. Se estudian estructuras de 3, 9, 20 y 50 pisos modeladas en OpenSees con tabiques explícitamente incluidos. El análisis incremental de franjas múltiples permitió evaluar la evolución del primer modo de amortiguamiento usando técnicas de identificación de sistemas. Se cuantificó también la variación del periodo y amortiguamiento equivalentes en función del desplazamiento máximo de techo normalizado (PRDR). Se observa que, para intensidades menores al sismo de servicio (SLE), el periodo fundamental disminuye entre 2.5% y 4.2% respecto a la estructura sin tabiques. Para mayores intensidades, el periodo converge al de la estructura sin tabiques. En cuanto al amortiguamiento del primer modo, se incrementa entre 8% y 45% para intensidades menores a SLE. Luego decae linealmente (en escala logarítmica) con el aumento del PRDR hasta estabilizarse en 4%-6% por sobre la estructura sin tabiques. Se identifican tres zonas de comportamiento: crecimiento inicial, meseta y decaimiento hacia intensidades MCE. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis del comportamiento de relaves mineros a través de medios porosos(Universidad Técnica Federico Santa María, 2025-11-26) ;Tejo Muñoz, Diego Nicolás ;Departamento de Ingeniería Metalúrgica y de MaterialesPalma Moya, Sergio AndresLa gestión segura de los relaves mineros constituye uno de los principales desafíos de la industria minera de la actualidad. Los sistemas de contención, como tranques y depósitos, presentan riesgos inherentes de rotura que pueden generar derrames con consecuencias ambientales catastróficas, siendo la infiltración en el subsuelo uno de los más críticos. Debido a su naturaleza, los relaves mineros no se comportan como fluidos newtonianos, sino que presentan características reológicas complejas que dificultan predecir su movilidad mediante modelos tradicionales de filtración en medios porosos. Este aspecto hace necesario el desarrollo de modelos que integren tanto las propiedades del fluido como la geometría del medio de transporte. En este contexto, la presente investigación propone un modelo adimensional para la caracterización del flujo de relaves mineros a través de medios porosos, construido a partir de simulaciones computacionales realizadas en el software COMSOL Multiphysics. Se consideró el modelo reológico de Herschel-Bulkley, con parámetros definidos a partir de investigaciones previas, los cuales fueron variados en conjunto con la geometría de simulación con el fin de determinar su influencia sobre la presión y la velocidad interna del medio poroso. En paralelo, se realizaron experimentos de infiltración por gravedad en medios porosos, utilizando suspensiones de maicena como fluido no newtoniano de referencia, con el objetivo de generar datos experimentales que permitieran contrastar y validar la aplicabilidad del modelo propuesto en sistemas más complejos. Los resultados confirmaron que el modelo propuesto describe de forma coherente la interacción entre las propiedades reológicas de los relaves y la geometría del medio poroso, permitiendo extender su aplicabilidad tanto a configuraciones bidimensional como tridimensional. En conjunto, el modelo entrega una herramienta robusta para el estudio y la predicción del comportamiento de estos fluidos complejos en medios porosos, contribuyendo a reducir la dependencia de parámetros estrictamente empíricos y facilitando el diseño, evaluación y optimización de procesos asociados a infiltración, transporte y contención de relaves y otras suspensiones complejas.
