Tesis de Postgrado
Permanent URI for this collectionhttps://cris.usm.cl/handle/123456789/276
Browse
Browsing Tesis de Postgrado by Title
Now showing 1 - 20 of 402
- Results Per Page
- Sort Options
- Some of the metrics are blocked by yourconsent settings
Thesis 2-Step Evolutionary Algorithm for the generation of dungeons with lock door missions using horizontal symmetry(Universidad Técnica Federico Santa María, 2024-11) ;Dumont Ortiz, Felipe Antonio ;Montero Ureta, Elizabeth Del Carmen ;Departamento de Informática ;Riff Rojas, Maria CristinaAraya, IgnacioEsta tesis examina la generación procedural de contenido en videojuegos, enfocándose en la creación de niveles y mazmorras. Primero, se analizan las técnicas generales de generación procedural, seguidas de un estudio más detallado sobre la generación de niveles. El trabajo principal se centra en un Algoritmo Evolutivo de 2 Pasos (2-Step EA) para generar mazmorras con misiones de llaves y barreras. La primera fase del algoritmo configura el diseño básico de la mazmorra, y la segunda fase asigna llaves y barreras estratégicamente. Los resultados muestran que el algoritmo propuesto es efectivo en producir mazmorras de alta calidad y eficientes computacionalmente. Este enfoque ofrece una metodología sólida para la generación procedural de contenido dinámico. - Some of the metrics are blocked by yourconsent settings
Thesis 3D numerical analysis of pile-supported excavations under bidirectional seismic loading(Universidad Técnica Federico Santa María, 2024-08) ;Llanquilef Navarro, Belén Noemí ;Departamento de Obras CivilesUbilla Villagran, JavierLos sistemas de sostenimiento con pilotes anclados discontinuos se utilizan con frecuencia en excavaciones profundas temporales en Santiago de Chile, debido a las condiciones geológicas caracterizadas por suelos gravo-arenosos rígidos y un nivel freático profundo. Esta investigación presenta un estudio integral que incluye el desarrollo de un modelo 3D para simular este tipo de excavaciones con pilotes anclados discontinuos. Se emplea el modelo constitutivo HS-Small para replicar con precisión las propiedades del suelo gravoso de Santiago, utilizando parámetros calibrados en base a ensayos geofísicos y de laboratorio de investigaciones previas. El objetivo principal del estudio es realizar un análisis dinámico utilizando dos ondas tipo Ricker y ondas sísmicas aplicadas en dos direcciones. Este análisis busca simular eventos sísmicos reales y evaluar la integridad estructural de los sistemas de sostenimiento bajo tales condiciones. Se emplean técnicas computacionales avanzadas para modelar con precisión el comportamiento de estos sistemas. Además, los resultados de los análisis dinámicos se comparan con las normativas chilenas para evaluar el desempeño estructural. Esta comparación es clave para determinar si las normas son conservadoras y si los sistemas cumplen con los criterios de seguridad y rendimiento requeridos. Los resultados obtenidos de los análisis dinámicos y la comparación con las normativas chilenas aportan información valiosa sobre el comportamiento y la eficacia de los sistemas de pilotes anclados discontinuos bajo cargas dinámicas. Se observa que los pilotes ubicados en esquinas experimentan menores desplazamientos y fuerzas internas, pero mayores empujes de suelo. Además, en algunos escenarios, las presiones del suelo inducidas dinámicamente superan las calculadas por la normativa, lo que sugiere oportunidades de mejora en las prácticas de diseño. - Some of the metrics are blocked by yourconsent settings
Thesis A High-Performance Implementation of a Simplified Coupled Wildfire-Atmosphere Mathematical Model(Universidad Técnica Federico Santa María, 2025-11-03) ;San Martin Reyes, Daniel Eduardo ;Sauer, Timothy ;Ayala, Orlando ;Leon Vasquez, Roberto Jesus ;Fuentes Castillo, Andres Hernan ;Departamento de InformáticaTorres Lopez, Claudio EstebanLos incendios forestales representan una problemática ambiental global con fuerte impacto en Chile, donde cada año se pierden miles de hectáreas de bosques. Este fenómeno provoca pérdida de biodiversidad, degradación del aire, alteración de los ciclos hídricos y daños graves a los ecosistemas, generando además impactos económicos y sociales. A nivel mundial, cerca del 75% de los incendios tienen origen humano; en Chile, según la CONAF, el 99,7% son causados por acción o negligencia humana. Entre 1963 y 2024 se registraron más de 283.000 incendios, con más de 4 millones de hectáreas afectadas. Con el fin de comprender y mitigar esta problemática, se han desarrollado diversos modelos matemáticos y herramientas computacionales. La presente investigación se enfoca en los modelos de propagación físicos acoplados, los cuales integran la dinámica de la atmósfera baja con la propagación del fuego, incorporando además los efectos de retroalimentación entre ambos procesos. A pesar de la existencia de múltiples implementaciones de estos modelos, solo una fracción se encuentra disponible en formato de código abierto. Este proyecto propone un método numérico y desarrolla una implementación de código abierto basada en un modelo físico simplificado y en técnicas de dinámica de fluidos computacional. Dada la naturaleza del algoritmo, la implementación se realizará en unidades de procesamiento gráfico (GPU) con el objetivo de reducir los tiempos de las simulaciones numéricas. De este modo, se busca facilitar estudios intensivos sobre incendios forestales, alcanzando tiempos de ejecución considerablemente menores en comparación con implementaciones en CPU. - Some of the metrics are blocked by yourconsent settings
Thesis A Mathematical and Computational Model for Multiple Collisions of Rigid Bodies: An Extension of A-CD2 Method(Universidad Técnica Federico Santa María, 2016-07) ;León Vásquez, Roberto Jesús ;Solar Fuentes, Mauricio ;Departamento de Informática ;Salinas Carrasco, LuisTorres Lopez, Claudio EstebanUna extensión de un modelo matemático y simulaciones computacionales para colisiones múltiples de cuerpos rígidos es presentada en este trabajo El método A-CD2 entrega una descripción mecánica para colisiones instantáneas entre cuerpos rígidos. La solución de un problema de optimización con restricciones es requerida para obtener las nuevas velocidades de los cuerpos rígidos después de una colisión. La extensión a este método incluye el uso de las ecuaciones de Euler para modelar las velocidades angulares, esto produce velocidades angulares no constantes cuando los momentos de inercia son distintos. Si los momentos de inercia son iguales, se obtienen velocidades angulares constantes. Esta extensión considera también una reducción en la complejidad computacional del algoritmo original. La complejidad computacional ha sido reducido de un algoritmo O(N2) a un algoritmo O(N). Esta reducción permite manejar problemas 20 veces más grandes que la implementación original. Finalmente se presentan simulaciones numéricas sobre una estructura granular, un evento real de una avalancha y la constitución de capas granulares. - Some of the metrics are blocked by yourconsent settings
Thesis A Search For Vector-Like Lepton with Long-Lived Particles in the CMS Detector(Universidad Técnica Federico Santa María, 2025-07-03) ;Vega Sepúlveda, Valentina Nicole ;Tapia Araya, Sebastián ;Garay, Francisca ;Departamento de Física ;Brooks, WilliamPeña, CristianThis thesis presents the development and results of a search for long-lived particles (LLPs) decaying into electromagnetic final states, motivated by a simplified model involving heavy vector-like leptons (VLLs). The analysis is based on the full Run 2 dataset recorded with the CMS detector at the CERN LHC, corresponding to an integrated luminosity of 138 fb−1 at √s = 13 TeV. The search targets displaced electromagnetic showers produced by LLP decays into photon pairs (aτ → γγ), reconstructed exclusively in the muon detectors. To identify these events, dedicated reconstruction algorithms were developed to cluster energy deposits in the Drift Tube (DT) and Cathode Strip Chamber (CSC) systems, independent of tracking information. Backgrounds are estimated using a data-driven technique based on a parametric transfer factor derived from control regions. A comprehensive study of systematic uncertainties was carried out. The results set the first experimental constraints on this model, excluding VLL masses up to 700 GeV for proper decay lengths around 0.005–2.4 meters. These findings demonstrate the effectiveness of using the muon system to explore signatures of new physics beyond the Standard Model. - Some of the metrics are blocked by yourconsent settings
Thesis A Two–Stage Model Predictive Control Strategy for Three–level NPC Converters based on Multistep Finite Control Set and Optimal Pulse Patterns(Universidad Técnica Federico Santa María, 2023-11) ;González Duguet, Cristóbal Alejandro ;Departamento de Ingeniería EléctricaAngulo Cardenas, Alejandro AlbertoLa transferencia de energía entre fuentes de energía y el sistema eléctrico debe cumplir con una larga y rigurosa lista de requisitos técnicos y operacionales. En este contexto, los convertidores de tres niveles con punto neutro comprimido conectados a la red mediante filtro LCL se han convertido en una configuración popular para aplicaciones de alta potencia y voltaje medio, como la integración de recursos energéticos distribuidos. La presencia del filtro LCL aumenta la complejidad del sistema de control cuando se utilizan esquemas de control lineales tradicionales, por lo que las estrategias de control predictivo de modelo (MPC, por sus siglas en inglés) surgen como una alternativa conveniente debido a que han demostrado una excelente capacidad de seguimiento de referencia y una rápida respuesta dinámica. Sin embargo, la complejidad computacional de las estrategias MPC se convierte en un problema, ya que las plataformas de control comerciales deben ejecutar los cálculos en tiempo real en decenas de microsegundos. Entre las estrategias MPC disponibles, el MPC de conjunto de control finito multietapa (MFCS, por sus siglas en inglés) ha demostrado ser una opción viable en cuanto a carga computacional. No obstante, los controladores MFCS no generan voltajes periódicos ni simétricos entre las fases del sistema, lo que da lugar a espectros de Fourier continuos en los estados del sistema, lo que es un inconveniente fundamental para aplicaciones conectadas a la red, ya que los códigos de red imponen límites sobre las amplitudes admisibles de los componentes armónicos de las corrientes de la red. Por otro lado, los patrones de pulsos óptimos (OPP, por sus siglas en inglés) garantizan una frecuencia de conmutación baja y fija de los semiconductores, minimizando la distorsión de las variables de estado. Sin embargo, las formulaciones actuales de los OPPs asumen que el sistema puede modelarse como una carga puramente inductiva, lo que llevaría a un rendimiento subóptimo y no permitiría agregar restricciones que aseguren el cumplimiento de los códigos de red respecto a las corrientes de la red. Este trabajo propone integrar dos etapas de optimización que aborden diferentes objetivos de control en un único marco de control generalizado. Este marco se utilizó para desarrollar una estrategia de control (OPP-MFCS) que combina los beneficios de los OPP y los controladores MFCS. Para ello, se propuso una nueva formulación para los OPPs considerando el modelo del filtro LCL, lo que permite la minimización directa de la distorsión total de demanda (TDD) de las corrientes de la red mientras se garantiza que se cumplan los límites admisibles para los componentes armónicos. Además, al formular un controlador MFCS con horizonte de predicción de tamaño variable, fue posible extender el tiempo cubierto por el horizonte de predicción sin carga computacional adicional. Esta mejora permitió un mejor rendimiento del controlador tanto en las respuestas transitorias como en estado estable del sistema. Se realizaron análisis exhaustivos de las contribuciones de los OPPs, los controladores MFCS y la estrategia OPP-MFCS. La estrategia OPP-MFCS fue probada mediante simulaciones y experimentos con hardware en el lazo, mostrando su capacidad para cumplir con la norma técnica IEEE Std. 519-2022 mientras el convertidor opera a una frecuencia de conmutación baja y fija, con voltajes periódicos y simétricos, cumpliendo con todos los objetivos de control definido - Some of the metrics are blocked by yourconsent settings
Thesis A variational approach to a cumulative distribution function estimation problem under stochastic ambiguity(2022) ;Urrea Castillo, Fernanda Paz ;Briceño Arias, Luis Manuel ;Departamento de MatemáticaDeride Silva, Julio AlejandroEn esta tesis se propone un método para el problema de estimación de funciones de distribución de probabilidad bajo ambigüedad estocástica. La ambigüedad estocástica está representada por un conjunto de incertidumbre en el que se debe encontrar la función de distribución acumulada y el método propuesto considera a las funciones de distribución acumulada como un subconjunto de una clase más grande de funciones, el espacio de las funciones semicontinuas superior. Presentamos varios resultados para introducir las propiedades topológicas del espacio y también para justificar nuestra elección del espacio. Las herramientas utilizadas para desarrollar este método se basan en la teoría del análisis variacional. En particular, trabajamos sobre el espacio de las funciones semicontinuas superior dotado de la distancia de Attouch Wets para las que se propone una aproximación y en conjunto con el uso de epi-splines (funciones polinomiales a trozos) impulsan un esquema de aproximación lineal a nuestro enfoque. Implementamos un algoritmo para el caso bivariado que nos permite calcular soluciones al problema aproximado así como también incorporar información suave y condiciones de crecimiento al modelo. Enunciamos condiciones que garantizan la convergencia de los minimizadores cercanos de la sucesión de problemas aproximados en soluciones para el problema original y entregamos una clase de funciones que satisfacen aquella condición. Probamos nuestro algoritmo a modo de prueba de concepto con dos ejemplos distintos, donde analizamos varios parámetros y también realizamos experiencias numéricas para el problema de estimación de la posición de un vehículo submarino no tripulado dadas fuentes de información ruidosas. - Some of the metrics are blocked by yourconsent settings
Thesis Adaptación de fórmulas empíricas enfocadas en la generación de curvas para la evaluación temprana de tsunamis basadas en Intensidad Modificada de Mercalli.(2017) ;Baquedano Caprile, José Luis ;Departamento de Obras CivilesCatalan Mondaca, Patricio AndresIn recent years, Chile has been exposed to an important number of strong earthquakes that havetriggered tsunamis of different amplitudes and extension. Notable examples include the Maule earthquake(Mw 8.8), which took place on February 27th, 2010; the Iquique earthquake (Mw 8.2), on April1st, 2014; and the Illapel earthquake (Mw 8.3), on September 16th, 2015. These events permittedthe identification of some weaknesses of the then existing Chilean Tsunami Warning System, and thecreation of an improvement strategy that has been implemented recently, which corresponds to theIntegrated System of Tsunami Predicion and Alert (SIPAT, in Spanish). Despite these improvements,there is still some uncertainty regarding to the exact area potentially affected by a tsunami immediately,and more importantly, a finite time before solutions are found. These difficulties are mainlydue to the time restraints of the way the information flows between the three entities in charge of theevaluation (ONEMI, CSN and SHOA), and the time required to process the data. Hence the necessityof a supplementary evaluation method that helps define the evacuation area.In this work, an analysis of the potential relation between the intensity of an earthquake (via theModified Mercalli Intensity, MMI) and the occurrence of a tsunami and its expected wave amplitudeis performed, taking into account the distance from the point of interest to the hypocenter and theearthquake magnitude. Thus, the objective is to test whether the Mercalli Intensity Scale can be usedas a tool to support the existing system from a technical point of view, during the period when noother technical assessment is available.First, a series of empirical formulae relating the intensity with either Peak Ground Accelerationor Peak Ground Velocity, and others that relate PGA or PGV with the parameters that define theearthquake (e.g. depth, magnitude, dip, strike, among others) are tested and calibrated. To performthis, data available from earthquakes occurred between 2011 and 2014 are used. In order to validateour scheme, additional data from 2015 earthquakes are utilized. The result is an empirical relationshipbetween MMI, hypocentral distance and earthquake magnitude.Next, to obtain the corresponding tsunami hazard, numerical simulations of a range of scenariosare performed to ensure data coverage and statistical robustness. Here, a series of points of interestlocated around nine coastal cities are considered to create city-specific charts which relate tsunamihazard with magnitude and hypocentral distance. A city-specific approach is used under the premisethat a tsunami would vary greatly in different locations, even under the same source conditions, dueto bathymetric and topographic controls.Through the completion of the aforementioned steps, an additional way to evaluate the risk of atsunami after a considerably large seismic event is available for use and, in consequence, the currentevaluation system is reinforced, improving the preparation and response times against an eventual emergency. - Some of the metrics are blocked by yourconsent settings
Thesis Adapting bipedal neuro-motor policies on planned footsteps(2024-04) ;Rojas Sánchez, Miguel Yerón ;Vásconez, Juan Pablo ;Departamento de Electrónica ;Creixell Fuentes, Werner UweAraya Lopez, Mauricio AlejandroThis study investigates a hierarchical reinforcement learning approach to achieve human-like walking in bipedal robots while following marked footsteps. Traditionally, state machines and model-based methods were used for this task, ensuring stability and safety but lacking natural human-like motion. Our approach utilizes a two-level architecture: a high-level policy trained specifically for following footsteps and a low level policy distilled from motion capture data to generate natural gaits. Experiments demonstrate that this hierarchical approach significantly outperforms training a single network, particularly for complex tasks on human-sized robots. The low-level network plays a crucial role, substantially reducing joint torques and speeds while achieving stable walking. However, a current limitation is the inability to follow footsteps on stairs. We observed that both general and locomotion motion capture datasets achieved similar results in following footsteps, but the locomotion dataset generated more visually natural human-like walking, especially for forward walking. Future work will aim to improve the robot’s walking robustness for navigating uneven terrains like stairs and slopes. Our findings suggest that low-level networks pre-trained on motion capture data are a viable approach for achieving human-like walking gaits in real-world, human-sized robots. This research paves the way for developing bipedal robots with efficient and natural walking capabilities. Accompanying videos1 and code2 are available online. - Some of the metrics are blocked by yourconsent settings
Thesis Adaptive dynamic compensation for real-time hybrid simulation testing(Universidad Técnica Federico Santa María, 2021-08) ;Gálmez Villaseca, Cristóbal Gonzalo ;Departamento de Obras CivilesFermandois Cornejo, Gaston AndresLa simulación híbrida en tiempo real (Real-Time Hybrid Simulation, RTHS) es una técnica experimental utilizada para estudiar estructuras sometidas a excitaciones dinámicas, donde una subestructura se ensaya físicamente y el resto se modela numéricamente. La precisión y estabilidad del ensayo dependen de minimizar errores de sincronización entre los subdominios numérico y experimental. Este estudio propone un método de compensación adaptativa para diseñar un controlador independiente de la subestructura experimental, el cual no requiere ensayos previos para su calibración. Las condiciones iniciales se definen mediante un modelo del sistema de transferencia sin interacción física, y se ajustan en tiempo real durante el ensayo. La metodología se valida mediante simulaciones numéricas en un problema de referencia virtual (benchmark) de RTHS, considerando escenarios con múltiples subestructuras experimentales, incluso no lineales. Además, se desarrolla un indicador de estabilidad en línea basado en métodos energéticos, capaz de prevenir daños por desplazamientos excesivos. Los resultados demuestran que la estrategia propuesta mejora significativamente la precisión, robustez y seguridad del ensayo RTHS. - Some of the metrics are blocked by yourconsent settings
Thesis Adsorción de triptófano en nanomateriales a base de carbono(Universidad Técnica Federico Santa María, 2024) ;Flores Bahamóndez, Sofia Antonia ;Departamento de FísicaDel Campo Sfeir, Valeria IsabelLa nanomedicina ha hecho aportes significativos para la salud de las personas, desarrollando implantes, terapias, medicamentos y reparación de tejidos, entre otros. Para diseñar materiales implantables que imiten las funciones biológicas requeridas, es importante comprender la respuesta del cuerpo humano a estos materiales. Por lo tanto, es fundamental comprender la interacción entre nanomateriales y biomoléculas como los aminoácidos, unidad principal de las proteínas. En este trabajo estudiamos experimentalmente la interacción de nanomateriales a base de carbono: grafeno y óxido de grafeno, con distintos tipos de triptófano. La síntesis de nanomateriales fue llevada a cabo mediante la técnica de PECVD (Plasma Enhanced Chemical Vapor Deposition) y, utilizando una técnica libre de polímeros, transferimos nanomateriales de áreas grandes (~2,8 cm²) a distintos tipos de sustratos. Estudiamos la estructura de los nanomateriales y de los distintos tipos de triptófano mediante espectroscopía Raman y microscopía óptica, y analizamos la naturaleza de su interacción mediante mediciones de absorbancia ultravioleta. Los resultados muestran que, en los casos en que el triptófano se adsorbe en el nanomaterial, el cambio de concentración no depende de la concentración inicial de la solución de triptófano ni del área del nanomaterial. A partir de mediciones AFM (Atomic Force Microscopy) inferimos que el triptófano se adsorbe en la superficie del nanomaterial en aglomeraciones, sugiriendo que las isotermas de adsorción obtenidas en cada experimento podrían ser ajustadas con modelos de adsorción en multicapas como el modelo BET (Brunauer-Emmett-Teller). En esta tesis también presentamos el trabajo realizado durante una pasantía en el Institut National de l'Énergie Solaire (Francia). A través de la técnica de elipsometría espectroscópica, estudiamos los índices ópticos del grafeno, obteniendo valores menores a los reportados en la literatura. - Some of the metrics are blocked by yourconsent settings
Thesis Advanced trans-domain knowledge transfer through transformer-based distillation: a novel framework for image-LiDAR integration in autonomous systems(Universidad Técnica Federico Santa María, 2025-03-11) ;Ortiz Sandoval, Jesus Eduardo ;Departamento de ElectrónicaCreixell Fuentes, Werner UweRecent advances in deep learning have significantly improved the performance of image classification models, yet adapting these models to fundamentally different data types—such as point clouds from Light Detection and Ranging (LiDAR) sensors—remains a challenging task. This thesis addresses that challenge by exploring trans-domain knowledge distillation: transferring capabilities learned from well-established image classification networks to LiDAR point cloud classification. Building on insights gained from earlier research on partial discharge (PD) signal generation using Deep Convolutional Generative Adversarial Networks (DCGANs), our approach leverages adversarial learning principles to preserve domain-specific features during knowledge transfer. Central to this work is a transformer-based distillation framework that aligns the rich feature representations of teacher models (trained on image datasets) with the unique spatial and structural characteristics of LiDAR point clouds. This transformer architecture employs multi-head attention mechanisms to maintain both global structure and local detail—an insight originally derived from our GAN-based PD signal synthesis, where temporal and spectral fidelity proved essential for realistic data generation. Through rigorous experimental validation on benchmark datasets, our distilled models achieve an F1-score of 90.4. Beyond immediate performance gains, this research underscores the versatility of knowledge distillation techniques for trans-domain adaptation. It illustrates how established models trained on high-fidelity image data can enhance the interpretative power of LiDAR-based classifiers, significantly reducing the reliance on large-scale annotated point cloud datasets. Additionally, the thesis explores the impact of optimizing distillation parameters—such as temperature and weighting factors—and highlights the potential of self-supervised learning for scenarios where annotated teacher data are scarce. The proposed methodology has broad applicability, potentially extending beyond the fusion of image and LiDAR domains to other fields characterized by data disparities in availability, frequency, and richness. Ultimately, this work lays the groundwork for more robust, efficient, and cost-effective perception systems that can accelerate the deployment of intelligent, real-time applications such as autonomous driving and beyond. - Some of the metrics are blocked by yourconsent settings
Thesis Agujeros negros con pelo y dualidad ADS/CFT(Universidad Técnica Federico Santa María, 2016-11) ;Choque Quispe, David ;Departamento de FísicaAstefanesei, Dumitru (Pontificia Universidad Católica de Valparaíso)La dualidad AdS/CFT es una realización concreta del principio holográfico. Es una herramienta muy eficaz para extraer información de teorías gauge fuertemente acopladas (en dimensiones) de una teoría gravitacional clásica (en d+1 dimensiones). Los agujeros negros asintóticamente AdS juegan un rol importante en el entendimiento de la dinámica y termodinámica de las teorías del campo holográficas duales. En particular, estos agujeros negros son duales a los estados térmicos de la teoría del campo del borde. Los campos desenpeñan un rol importante en cosmología para modelar la materia oscura, en física de altas energías la partícula de Higgs es escalar. Consideramos teorías de campos escalares mínimamente acoplados a la gravedad con potenciales (escalares) no-triviales. Calculamos la acción on-shell regularizada con el método de renormalización holográfica y de esta obtenemos las cantidades termodinámicas de soluciones exactas de agujeros negros. Estudiamos los diagramas de fase de estos agujeros negros y sus interpretaciones en la teoría del campo dual. Construimos el tensor de stress de Brown-York y calculamos la masa (holográfica). A continuación, para una solución general, calculamos la masa holográfica, la masa Hamiltoniana y vemos que concuerdan para cualesquiera condiciones de borde. Estudiamos la anomalía de traza y su contribución no-trivial a la masa. Estos resultados fueron anteriormente publicados en [1-3]. - Some of the metrics are blocked by yourconsent settings
Thesis Ajustando la similaridad intra-modal en un entrenamiento cross-modal basado en tripletas(Universidad Técnica Federico Santa María, 2024) ;Mallea Ruz, Mario Carlos ;Solar Fuentes, Mauricio ;Departamento de Informática ;Ñanculef Alegria, Juan RicardoAraya Lopez, Mauricio AlejandroContent-Based Image Retrieval (CBIR) es un técnica que permite ingresar como consulta una imagen, y recuperar las imágenes visualmente más parecidas a la con sulta en una base de datos. Una técnica relaciona es el Cross-modal retrieval (CMR), este permite consultar en una modalidad (ej: texto) y recuperar información en otra modalidad (ej: imágenes). Con el rápido crecimiento del contenido multimedia, CBIR y CMR se han convertido en tecnologías esenciales para construir sistemas de infor mación en varios dominios, como: social networks, online retail, remote sensing , y medicine. - Some of the metrics are blocked by yourconsent settings
Thesis Ajuste, aplicación y sensibilización de métodos de valorización de los activos viales de pasarelas peatonales concesionadas(Universidad Técnica Federico Santa María, 2024-08) ;Segura Iturrieta, Rudy Alberto ;Departamento de Obras CivilesOsorio Lird, AleliLa valorización de activos busca estimar el valor monetario de infraestructura física, como las pasarelas peatonales en rutas concesionadas, siendo clave en la gestión vial. En Chile, la metodología actual fue diseñada para la red no concesionada, por lo que no responde a los objetivos específicos de las concesiones interurbanas. Esta tesis propone un modelo de valorización ajustado a los componentes del activo pasarelas (estructura, accesorios, iluminación, paraderos y aceras), basado en métodos de Depreciación Lineal (DL), Valor Ajustado Respecto a la Condición Límite (VARCL) y Valor Fijo Respecto a la Condición Límite (VFRCL). El modelo se valida y sensibiliza con datos reales de carreteras concesionadas chilenas. Los resultados muestran que el modelo supera en exactitud y precisión a las metodologías vigentes, gracias a la obtención de Costos Históricos específicos y al uso de índices de condición que reflejan mejor la integridad funcional del activo. Además, su implementación en bases de licitación permitiría evaluar la gestión del concesionario en la conservación del valor de los activos, siempre que se garantice el correcto procesamiento de la información y el diseño de mecanismos de incentivo y penalización. - Some of the metrics are blocked by yourconsent settings
Thesis Algorithms based on heuristics for solving the train departure matching problem(2018) ;Rojas Ruz, Alondra Valentina ;Castro Valdebenito, Carlos ;Departamento de Informática ;Riff Rojas, Maria CristinaCastro Valdebenito, Carlos MiguelThe Train Departure Matching Problem (DMP) is a problem of train schedulingwhere the objective is find the best way to assign trains to scheduled departuressubject to a set of constraints related to railway management. It is a problem thatarises from the rolling stock units management on railway sites problem, presented inthe ROADEF/EURO Challenge 2014, which is usually treated as two sub-problems:The DMP and the routing problem. In this work the DMP is formally presented:the model of the DMP, a review of the literature of this problem and other trainscheduling problems, then present the GRASP algorithm (G-DMP) and theEvolutionaryAlgorithm (AE-DMP) capable of solving this problem and then evaluate itsperformance in different experiments. - Some of the metrics are blocked by yourconsent settings
Thesis Algoritmo de Reconstrucción para la Identificación y Segregación de Partículas de Altas Energías en un detector preshower(2017) ;Pavez Sepúlveda, Juan Guillermo ;Valle, Carlos ;Departamento de Informática ;Allende Olivares, HectorHakobyan, HaykLa detección de partículas es un trabajo muy importante en campos como la física dealtas energías, la medicina y la astronomía. El proceso de detección consiste en identificarlas partículas producidas en distintos fenómenos físicos, como por ejemplo, las partículasproducidas en los grandes colisionadores. El proceso de detección, sin embargo, es complicadoy depende de muchos factores. Un caso especialmente difícil es la detección de partículasmuy cercanas provenientes, por ejemplo, del decaimiento de piones neutros. Para solucionareste problema el centro Científico y Tecnológico de Valparaíso ha propuesto un detectordel tipo calorímetro preshower, diseñado especialmente para tener una alta resolución en laidentificación de partículas cercanas. La solución de este problema tiene varias aplicacionesprácticas: En los colisionadores electron-ion puede ayudar al estudio de los gluones, elmaterial que une toda la materia del universo; En la medicina nuclear puede ayudar amejorar las imágenes producidas en las tomografías por emisión de positrones, vitales en eltratamiento del cancer.Para procesar los datos producidos por el detector se utiliza un algoritmo de reconstrucción.Este algoritmo es el encargado de convertir los datos brutos en información útil de lapartícula detectada, como su posición de incidencia, su energía o su ángulo.La contribución principal de este trabajo es el diseño e implementación de un algoritmode reconstrucción completo para el detector preshower. Para esto, las diferentes opcionesde la literatura son estudiadas y nuevas soluciones son propuestas para el trabajo dereconstrucción. Además, se construye una simulación computacional del detector y seestudia, mediante simulaciones, el desempeño del algoritmo de reconstrucción. Los resultadosobtenidos muestran la capacidad del detector preshower para identificar partículas cercanas,superando otras propuestas de la literatura. Además, basándose en este análisis, se proponenposibles mejoras al detector, las cuales pueden ser implementadas en próximas iteracionesdel diseño del detector. - Some of the metrics are blocked by yourconsent settings
Thesis Algoritmo multi-fuente de imputación de datos faltantes basado en algoritmo EM y vecinos recomendados(Universidad Técnica Federico Santa María, 2025-06-12) ;Campos Chartier, Sergio Manuel ;Sotelo Parraguez, Julio Andres ;Departamento de InformáticaAllende Olivares, HectorEn los problemas de Machine Learning, la presencia de datos faltantes es un desafío común, especialmente cuando las variables del estudio provienen de múltiples fuentes de información. Cada fuente puede tener distintos formatos, niveles de precisión y frecuencias de actualización, lo que genera inconsistencias y vacíos en los datos recopilados. Por ejemplo, en un sistema de predicción de demanda que depende de datos meteorológicos, económicos y de redes sociales, algunas fuentes pueden proporcionar información en tiempo real, mientras que otras pueden presentar retrasos en las actualizaciones o contener valores faltantes debido a errores de registro. Estas discrepancias pueden afectar la calidad del modelo, reduciendo su capacidad predictiva y aumentando la incertidumbre en los resultados. Por lo tanto, es fundamental aplicar estrategias como la imputación de datos si se desea realizar una tarea de aprendizaje supervisado, como regresión o clasificación, sin perder datos en el proceso. El algoritmo de Expectation Maximization (EM) ha sido utilizado con éxito para manejar valores faltantes, pero no está diseñado para escenarios típicos de Machine Learning, donde se crea un modelo de imputación sobre los datos de entrenamiento y luego se aplica a un conjunto de prueba. En este trabajo, proponemos EMreg-KNN, un novedoso algoritmo de imputación supervisado y de múltiples fuentes. Basado en el algoritmo EM y en el concepto de vecinos recomendados, EMreg-KNN construye un modelo de conjunto basado en regresión para la imputación de datos futuros, lo que permite la utilización posterior de cualquier método de Machine Learning basado en vectores para evaluar automáticamente tareas de clasificación. Para evaluar esta propuesta, se utilizan tres bases de datos diferentes con datos faltantes y cuatro algoritmos de clasificación. El método propuesto competirá con otros métodos de imputación para garantizar que los algoritmos de clasificación ofrezcan los mejores resultados según métricas ROC. EMreg-KNN obtiene mejores resultados en la mayoría de los escenarios. Además, los clasificadores muestran un comportamiento más estable gracias a la imputación de los valores faltantes. - Some of the metrics are blocked by yourconsent settings
Thesis Amplificación en suelo blando en Concepción(2017) ;Bonilla Álvarez, Karolay Alejandra ;Departamento de Obras Civiles ;Bonelli, PatricioSuazo Fuentealba, Gonzalo HernanReinforced concrete buildings structured with walls and founded on firm soilhada good performance in the 2010 Maule earthquake in Chile, however, some buildingslocated in places like Concepcion and Viña del Mar, where the bedrock is deeperthan 100 meters suffered damage in their walls.Assessments of damaged buildings in Concepcion have concluded that the damageobserved must have occurred at lateral displacements of 0:5% to 1:0% of theheight of the building, with brittle behavior, with the possible demand for displacementclose to 1:2% a 1:5% of the height, being required supply ductility to resistthe earthquake in a satisfactory way.The 2010 Maule earthquake was recorded by the acelerometers network of theUniversity of Chile (Renadic) and by the National Seismological Center of the Universityof Chile (CSN),the records obtained are mainly on landfi lls, with few recordson rock.Due to the absence of sufficient earthquake records in areas with soft soils andwhere there was greater damage, the equivalent linear method is evaluated in thecity of Concepcion, where there is a registry in these conditions, comparing the resultsobtained with this one-dimensional theory with what was recorded during theearthquake.The equivalent linear method is used by several authors because of the ease andspeed of its application. In this report, this method is used to obtain soil movementon the surface of a soft soil stratum by comparing the results using dierent rockoutcropping motion. The Rapel and Valparaiso records were used, which were obtainedon rock outcrops, both distant records to the city of Concepcion.It was determined that the choice of the movement considered in the bedrockstrongly aects the movement generated on the surface, with greater dierences inthe ordinates around the soil period. Therefore, for future ampli cation studies, it isnecessary to have rock stations close to soft soils areas.On the other hand, the Concepcion registry has been useful to interpret the damageoccurred in buildings of reinforced concrete of medium height constructed inthat area. This work evaluates the ampli cation of the soil and the variation of thefrequency content during the earthquake. In order to compare the ampli cation thatoccurs in the soft soil of Concepcion, the record of San Pedro de la Paz is used,where the bedrock is located at a depth between 25 to 40 meters, and the registryof Valparaso UTFSM which corresponds to a rock outcrop. The displacement anddisplacement spectra are compared for each record.The obtained results can be extrapolated to places where the rock is at a similardepth, the record obtained in San Pedro represents areas where the basal rock islocated at a depth between 25 and 40 meters, with ceiling shifts of the order of 0:7%of height. The results obtained with Concepcion can be extrapolated to areas wherethe bedrock is more than 100 meters deep. Precautions should be taken to limitlateral displacements and provide ductility in structures built on this type of soilconditions. - Some of the metrics are blocked by yourconsent settings
Thesis An evolution problem associated with the Infinity Fractional Laplacian(Universidad Técnica Federico Santa María, 2025-12-10) ;Muñoz León, Nicolás ;Departamento de MatemáticaQuaas Berger, AlexanderThe Infinity fractional Laplacian, denoted ∆⁽ˢ⁾₍∞₎, is a fully non‑linear, degenerate integro‑differential operator derived from the study of a non‑local Tug‑of‑War game; this operator is the main subject of this work. In the frame of viscosity solutions, we study existence, uniqueness and regularity of solutions to a parabolic problem associated with the operator; given the discontinuous behavior of ∆⁽ˢ⁾₍∞₎ϕ(x) at points where ∇ϕ(x)=0, a stability result is proved, however, it is necessary to ensure that our candidate solution, given by Perron’s Method, has non‑zero gradient in order to apply it. This is done on two different domains, namely an infinite strip and an annular domain; these domains share the property that their complement is made up of two disjoint components, so we are able to consider the same data in both settings and establish growth and decay rates that induce strict monotonicity on our solution.
