Tesis de Postgrado
Permanent URI for this collectionhttps://cris.usm.cl/handle/123456789/276
Browse
Browsing Tesis de Postgrado by Title
Now showing 1 - 20 of 189
- Results Per Page
- Sort Options
- Some of the metrics are blocked by yourconsent settings
Thesis 2-Step Evolutionary Algorithm for the generation of dungeons with lock door missions using horizontal symmetry(Universidad Técnica Federico Santa María, 2024-11) ;Dumont Ortiz, Felipe Antonio ;Montero Ureta, Elizabeth Del Carmen ;Departamento de Informática ;Riff Rojas, Maria CristinaAraya, IgnacioEsta tesis examina la generación procedural de contenido en videojuegos, enfocándose en la creación de niveles y mazmorras. Primero, se analizan las técnicas generales de generación procedural, seguidas de un estudio más detallado sobre la generación de niveles. El trabajo principal se centra en un Algoritmo Evolutivo de 2 Pasos (2-Step EA) para generar mazmorras con misiones de llaves y barreras. La primera fase del algoritmo configura el diseño básico de la mazmorra, y la segunda fase asigna llaves y barreras estratégicamente. Los resultados muestran que el algoritmo propuesto es efectivo en producir mazmorras de alta calidad y eficientes computacionalmente. Este enfoque ofrece una metodología sólida para la generación procedural de contenido dinámico. - Some of the metrics are blocked by yourconsent settings
Thesis 3D numerical analysis of pile-supported excavations under bidirectional seismic loading(Universidad Técnica Federico Santa María, 2024-08) ;Llanquilef Navarro, Belén Noemí ;Departamento de Obras CivilesUbilla Villagrán, JavierLos sistemas de sostenimiento con pilotes anclados discontinuos se utilizan con frecuencia en excavaciones profundas temporales en Santiago de Chile, debido a las condiciones geológicas caracterizadas por suelos gravo-arenosos rígidos y un nivel freático profundo. Esta investigación presenta un estudio integral que incluye el desarrollo de un modelo 3D para simular este tipo de excavaciones con pilotes anclados discontinuos. Se emplea el modelo constitutivo HS-Small para replicar con precisión las propiedades del suelo gravoso de Santiago, utilizando parámetros calibrados en base a ensayos geofísicos y de laboratorio de investigaciones previas. El objetivo principal del estudio es realizar un análisis dinámico utilizando dos ondas tipo Ricker y ondas sísmicas aplicadas en dos direcciones. Este análisis busca simular eventos sísmicos reales y evaluar la integridad estructural de los sistemas de sostenimiento bajo tales condiciones. Se emplean técnicas computacionales avanzadas para modelar con precisión el comportamiento de estos sistemas. Además, los resultados de los análisis dinámicos se comparan con las normativas chilenas para evaluar el desempeño estructural. Esta comparación es clave para determinar si las normas son conservadoras y si los sistemas cumplen con los criterios de seguridad y rendimiento requeridos. Los resultados obtenidos de los análisis dinámicos y la comparación con las normativas chilenas aportan información valiosa sobre el comportamiento y la eficacia de los sistemas de pilotes anclados discontinuos bajo cargas dinámicas. Se observa que los pilotes ubicados en esquinas experimentan menores desplazamientos y fuerzas internas, pero mayores empujes de suelo. Además, en algunos escenarios, las presiones del suelo inducidas dinámicamente superan las calculadas por la normativa, lo que sugiere oportunidades de mejora en las prácticas de diseño. - Some of the metrics are blocked by yourconsent settings
Thesis A Mathematical and Computational Model for Multiple Collisions of Rigid Bodies: An Extension of A-CD2 Method(Universidad Técnica Federico Santa María, 2016-07) ;León Vásquez, Roberto Jesús ;Solar Fuentes, Mauricio ;Departamento de Informática ;Salinas Carrasco, LuisTorres Lopez, Claudio EstebanUna extensión de un modelo matemático y simulaciones computacionales para colisiones múltiples de cuerpos rígidos es presentada en este trabajo El método A-CD2 entrega una descripción mecánica para colisiones instantáneas entre cuerpos rígidos. La solución de un problema de optimización con restricciones es requerida para obtener las nuevas velocidades de los cuerpos rígidos después de una colisión. La extensión a este método incluye el uso de las ecuaciones de Euler para modelar las velocidades angulares, esto produce velocidades angulares no constantes cuando los momentos de inercia son distintos. Si los momentos de inercia son iguales, se obtienen velocidades angulares constantes. Esta extensión considera también una reducción en la complejidad computacional del algoritmo original. La complejidad computacional ha sido reducido de un algoritmo O(N2) a un algoritmo O(N). Esta reducción permite manejar problemas 20 veces más grandes que la implementación original. Finalmente se presentan simulaciones numéricas sobre una estructura granular, un evento real de una avalancha y la constitución de capas granulares. - Some of the metrics are blocked by yourconsent settings
Thesis A Search For Vector-Like Lepton with Long-Lived Particles in the CMS Detector(Universidad Técnica Federico Santa María, 2025-07-03) ;Vega Sepúlveda, Valentina Nicole ;Tapia Araya, Sebastián ;Garay, Francisca ;Departamento de Física ;Brooks, WilliamPeña, CristianThis thesis presents the development and results of a search for long-lived particles (LLPs) decaying into electromagnetic final states, motivated by a simplified model involving heavy vector-like leptons (VLLs). The analysis is based on the full Run 2 dataset recorded with the CMS detector at the CERN LHC, corresponding to an integrated luminosity of 138 fb−1 at √s = 13 TeV. The search targets displaced electromagnetic showers produced by LLP decays into photon pairs (aτ → γγ), reconstructed exclusively in the muon detectors. To identify these events, dedicated reconstruction algorithms were developed to cluster energy deposits in the Drift Tube (DT) and Cathode Strip Chamber (CSC) systems, independent of tracking information. Backgrounds are estimated using a data-driven technique based on a parametric transfer factor derived from control regions. A comprehensive study of systematic uncertainties was carried out. The results set the first experimental constraints on this model, excluding VLL masses up to 700 GeV for proper decay lengths around 0.005–2.4 meters. These findings demonstrate the effectiveness of using the muon system to explore signatures of new physics beyond the Standard Model. - Some of the metrics are blocked by yourconsent settings
Thesis A Two–Stage Model Predictive Control Strategy for Three–level NPC Converters based on Multistep Finite Control Set and Optimal Pulse Patterns(Universidad Técnica Federico Santa María, 2023-11) ;González Duguet, Cristóbal Alejandro ;Departamento de Ingeniería EléctricaAngulo Cardenas, Alejandro AlbertoLa transferencia de energía entre fuentes de energía y el sistema eléctrico debe cumplir con una larga y rigurosa lista de requisitos técnicos y operacionales. En este contexto, los convertidores de tres niveles con punto neutro comprimido conectados a la red mediante filtro LCL se han convertido en una configuración popular para aplicaciones de alta potencia y voltaje medio, como la integración de recursos energéticos distribuidos. La presencia del filtro LCL aumenta la complejidad del sistema de control cuando se utilizan esquemas de control lineales tradicionales, por lo que las estrategias de control predictivo de modelo (MPC, por sus siglas en inglés) surgen como una alternativa conveniente debido a que han demostrado una excelente capacidad de seguimiento de referencia y una rápida respuesta dinámica. Sin embargo, la complejidad computacional de las estrategias MPC se convierte en un problema, ya que las plataformas de control comerciales deben ejecutar los cálculos en tiempo real en decenas de microsegundos. Entre las estrategias MPC disponibles, el MPC de conjunto de control finito multietapa (MFCS, por sus siglas en inglés) ha demostrado ser una opción viable en cuanto a carga computacional. No obstante, los controladores MFCS no generan voltajes periódicos ni simétricos entre las fases del sistema, lo que da lugar a espectros de Fourier continuos en los estados del sistema, lo que es un inconveniente fundamental para aplicaciones conectadas a la red, ya que los códigos de red imponen límites sobre las amplitudes admisibles de los componentes armónicos de las corrientes de la red. Por otro lado, los patrones de pulsos óptimos (OPP, por sus siglas en inglés) garantizan una frecuencia de conmutación baja y fija de los semiconductores, minimizando la distorsión de las variables de estado. Sin embargo, las formulaciones actuales de los OPPs asumen que el sistema puede modelarse como una carga puramente inductiva, lo que llevaría a un rendimiento subóptimo y no permitiría agregar restricciones que aseguren el cumplimiento de los códigos de red respecto a las corrientes de la red. Este trabajo propone integrar dos etapas de optimización que aborden diferentes objetivos de control en un único marco de control generalizado. Este marco se utilizó para desarrollar una estrategia de control (OPP-MFCS) que combina los beneficios de los OPP y los controladores MFCS. Para ello, se propuso una nueva formulación para los OPPs considerando el modelo del filtro LCL, lo que permite la minimización directa de la distorsión total de demanda (TDD) de las corrientes de la red mientras se garantiza que se cumplan los límites admisibles para los componentes armónicos. Además, al formular un controlador MFCS con horizonte de predicción de tamaño variable, fue posible extender el tiempo cubierto por el horizonte de predicción sin carga computacional adicional. Esta mejora permitió un mejor rendimiento del controlador tanto en las respuestas transitorias como en estado estable del sistema. Se realizaron análisis exhaustivos de las contribuciones de los OPPs, los controladores MFCS y la estrategia OPP-MFCS. La estrategia OPP-MFCS fue probada mediante simulaciones y experimentos con hardware en el lazo, mostrando su capacidad para cumplir con la norma técnica IEEE Std. 519-2022 mientras el convertidor opera a una frecuencia de conmutación baja y fija, con voltajes periódicos y simétricos, cumpliendo con todos los objetivos de control definido - Some of the metrics are blocked by yourconsent settings
Thesis Actualización, Aplicación y Sensibilización de las Metodologías de Valorización del Patrimonio Vial para Túneles de Carretera Concesionadas(Universidad Técnica Federico Santa María, 2024-12) ;Paredes Poblete, Nicolás Ignacio ;Departamento de Obras CivilesOsorio Lird, AleliEn Chile, la infraestructura vial, incluidos los túneles de carretera, es fundamental para el desarrollo económico y la conectividad del país. Sin embargo, la gestión efectiva del patrimonio vial enfrenta desafíos debido a la escasez de recursos y a la necesidad de una adecuada valorización de los activos. La Dirección de Vialidad ha utilizado modelos de depreciación simple, lo que limita la precisión en la representación del valor real de estos activos a lo largo del tiempo. La valorización adecuada permite asignar recursos de manera eficiente y priorizar las inversiones en conservación y mantenimiento. La metodología actual de valorización no contempla de manera precisa las características específicas de los túneles de carretera y no considera adecuadamente el impacto de las intervenciones necesarias a lo largo de su vida útil. Esto puede conducir a decisiones subóptimas en la gestión y conservación de la infraestructura vial, afectando su valor a largo plazo y la calidad del servicio prestado a los usuarios. El objetivo principal de este trabajo es ajustar y desarrollar metodologías de valorización para los componentes de túneles de carretera, utilizando un modelo que permita reflejar el valor real de estos activos. Se busca elaborar un manual técnico que facilite la implementación de estas metodologías, cumpliendo con el objetivo de plasmar el modelo de valorización enfocado en túneles de carretera en la documentación necesaria para su aplicación por parte de la Dirección General de Concesiones (DGC) en futuras licitaciones. La implementación de la Metodología de Valorización Propuesta Actualizada (MVPA) mejorará la precisión en la valoración de túneles de carretera, permitiendo una gestión más eficiente de los recursos públicos destinados a la infraestructura vial. Además, el manual técnico desarrollado será una herramienta clave para estandarizar el uso de estas metodologías en las bases de licitación, asegurando que las decisiones sobre inversión y mantenimiento estén fundamentadas en una valorización precisa y actualizada de los activos. - Some of the metrics are blocked by yourconsent settings
Thesis Adaptive dynamic compensation for real-time hybrid simulation testing(Universidad Técnica Federico Santa María, 2021-08) ;Gálmez Villaseca, Cristóbal Gonzalo ;Departamento de Obras CivilesFermandois Cornejo, Gaston AndresLa simulación híbrida en tiempo real (Real-Time Hybrid Simulation, RTHS) es una técnica experimental utilizada para estudiar estructuras sometidas a excitaciones dinámicas, donde una subestructura se ensaya físicamente y el resto se modela numéricamente. La precisión y estabilidad del ensayo dependen de minimizar errores de sincronización entre los subdominios numérico y experimental. Este estudio propone un método de compensación adaptativa para diseñar un controlador independiente de la subestructura experimental, el cual no requiere ensayos previos para su calibración. Las condiciones iniciales se definen mediante un modelo del sistema de transferencia sin interacción física, y se ajustan en tiempo real durante el ensayo. La metodología se valida mediante simulaciones numéricas en un problema de referencia virtual (benchmark) de RTHS, considerando escenarios con múltiples subestructuras experimentales, incluso no lineales. Además, se desarrolla un indicador de estabilidad en línea basado en métodos energéticos, capaz de prevenir daños por desplazamientos excesivos. Los resultados demuestran que la estrategia propuesta mejora significativamente la precisión, robustez y seguridad del ensayo RTHS. - Some of the metrics are blocked by yourconsent settings
Thesis Agujeros negros con pelo y dualidad ADS/CFT(Universidad Técnica Federico Santa María, 2016-11) ;Choque Quispe, David ;Departamento de FísicaAstefanesei, Dumitru (Pontificia Universidad Católica de Valparaíso)La dualidad AdS/CFT es una realización concreta del principio holográfico. Es una herramienta muy eficaz para extraer información de teorías gauge fuertemente acopladas (en dimensiones) de una teoría gravitacional clásica (en d+1 dimensiones). Los agujeros negros asintóticamente AdS juegan un rol importante en el entendimiento de la dinámica y termodinámica de las teorías del campo holográficas duales. En particular, estos agujeros negros son duales a los estados térmicos de la teoría del campo del borde. Los campos desenpeñan un rol importante en cosmología para modelar la materia oscura, en física de altas energías la partícula de Higgs es escalar. Consideramos teorías de campos escalares mínimamente acoplados a la gravedad con potenciales (escalares) no-triviales. Calculamos la acción on-shell regularizada con el método de renormalización holográfica y de esta obtenemos las cantidades termodinámicas de soluciones exactas de agujeros negros. Estudiamos los diagramas de fase de estos agujeros negros y sus interpretaciones en la teoría del campo dual. Construimos el tensor de stress de Brown-York y calculamos la masa (holográfica). A continuación, para una solución general, calculamos la masa holográfica, la masa Hamiltoniana y vemos que concuerdan para cualesquiera condiciones de borde. Estudiamos la anomalía de traza y su contribución no-trivial a la masa. Estos resultados fueron anteriormente publicados en [1-3]. - Some of the metrics are blocked by yourconsent settings
Thesis Ajuste, aplicación y sensibilización de métodos de valorización de los activos viales de pasarelas peatonales concesionadas(Universidad Técnica Federico Santa María, 2024-08) ;Segura Iturrieta, Rudy Alberto ;Departamento de Obras CivilesOsorio Lird, AleliLa valorización de activos busca estimar el valor monetario de infraestructura física, como las pasarelas peatonales en rutas concesionadas, siendo clave en la gestión vial. En Chile, la metodología actual fue diseñada para la red no concesionada, por lo que no responde a los objetivos específicos de las concesiones interurbanas. Esta tesis propone un modelo de valorización ajustado a los componentes del activo pasarelas (estructura, accesorios, iluminación, paraderos y aceras), basado en métodos de Depreciación Lineal (DL), Valor Ajustado Respecto a la Condición Límite (VARCL) y Valor Fijo Respecto a la Condición Límite (VFRCL). El modelo se valida y sensibiliza con datos reales de carreteras concesionadas chilenas. Los resultados muestran que el modelo supera en exactitud y precisión a las metodologías vigentes, gracias a la obtención de Costos Históricos específicos y al uso de índices de condición que reflejan mejor la integridad funcional del activo. Además, su implementación en bases de licitación permitiría evaluar la gestión del concesionario en la conservación del valor de los activos, siempre que se garantice el correcto procesamiento de la información y el diseño de mecanismos de incentivo y penalización. - Some of the metrics are blocked by yourconsent settings
Thesis Algoritmo multi-fuente de imputación de datos faltantes basado en algoritmo EM y vecinos recomendados(Universidad Técnica Federico Santa María, 2025-06-12) ;Campos Chartier, Sergio Manuel ;Sotelo Parraguez, Julio Andres ;Departamento de InformáticaAllende Olivares, HectorEn los problemas de Machine Learning, la presencia de datos faltantes es un desafío común, especialmente cuando las variables del estudio provienen de múltiples fuentes de información. Cada fuente puede tener distintos formatos, niveles de precisión y frecuencias de actualización, lo que genera inconsistencias y vacíos en los datos recopilados. Por ejemplo, en un sistema de predicción de demanda que depende de datos meteorológicos, económicos y de redes sociales, algunas fuentes pueden proporcionar información en tiempo real, mientras que otras pueden presentar retrasos en las actualizaciones o contener valores faltantes debido a errores de registro. Estas discrepancias pueden afectar la calidad del modelo, reduciendo su capacidad predictiva y aumentando la incertidumbre en los resultados. Por lo tanto, es fundamental aplicar estrategias como la imputación de datos si se desea realizar una tarea de aprendizaje supervisado, como regresión o clasificación, sin perder datos en el proceso. El algoritmo de Expectation Maximization (EM) ha sido utilizado con éxito para manejar valores faltantes, pero no está diseñado para escenarios típicos de Machine Learning, donde se crea un modelo de imputación sobre los datos de entrenamiento y luego se aplica a un conjunto de prueba. En este trabajo, proponemos EMreg-KNN, un novedoso algoritmo de imputación supervisado y de múltiples fuentes. Basado en el algoritmo EM y en el concepto de vecinos recomendados, EMreg-KNN construye un modelo de conjunto basado en regresión para la imputación de datos futuros, lo que permite la utilización posterior de cualquier método de Machine Learning basado en vectores para evaluar automáticamente tareas de clasificación. Para evaluar esta propuesta, se utilizan tres bases de datos diferentes con datos faltantes y cuatro algoritmos de clasificación. El método propuesto competirá con otros métodos de imputación para garantizar que los algoritmos de clasificación ofrezcan los mejores resultados según métricas ROC. EMreg-KNN obtiene mejores resultados en la mayoría de los escenarios. Además, los clasificadores muestran un comportamiento más estable gracias a la imputación de los valores faltantes. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis de fallas en estaciones de carga rápida para vehículos eléctricos(Universidad Técnica Federico Santa María, 2025-05-27) ;Palacio Aguilera, Alexander Brian ;Renaudineau, Hugues ;Otro ;Departamento de Electrónica ;Kouro Renaer, Samir FelipeKouro Renaer, Samir FelipeEs innegable el potencial e incremento de los vehículos eléctricos en el transporte, dado que es un componente vital para la descarbonización y transición energética. Esto se condice con una gran demanda en la infraestructura de carga, la cual posee una gran relevancia para una expansión de un medio de transporte descarbonizado. Es por ello que es necesario no solamente considerar el incremento de dicha infraestructura, sino que también es necesario extender la vida útil de la ya existente. Hay una diversa variedad de perfiles de carga capaces de alimentar las baterías de vehículos eléctricos, las cuales son diseñadas teniendo en cuenta consideraciones físico-químicas de las baterías de ion-litio. Existe un amplio espectro de investigaciones en relación con los perfiles de carga que se han hecho al respecto desde el punto de vista de las baterías. Sin embargo, faltan precedentes que detallen cómo estos perfiles impactan en las estaciones de carga rápida. En este trabajo se tiene como objetivo principal llevar a cabo un estudio del impacto de perfiles de carga de baterías en estaciones de carga de vehículos eléctricos a través del análisis de acumulación de daño en los semiconductores de dichas estaciones. Con ello se pretende determinar qué perfil de carga podría extender la vida útil y aumentar la confiabilidad y disponibilidad de esta importante infraestructura de transición energética. La principal razón de fallas en los semiconductores son los ciclos térmicos, dado en gran medida a la fatiga que producen en los materiales del encapsulado debido a la expansión y compresión de los mismos, sobre todo en el punto de juntura del MOSFET. Es por ello que en este trabajo se obtiene la temperatura del punto de juntura a través del análisis de Cauer, el cual es alimentado por las pérdidas que se producen en los semiconductores durante todo el proceso de carga. Para lograr un análisis detallado del impacto que se tiene en los semiconductores, en primera instancia se debe determinar qué factores se van a considerar y bajo qué circunstancias de operación. Para poder tener un análisis que represente diferentes temperaturas ambientes, se obtendrán datos bajo tres condiciones climáticas: una de 10°C, otra de 20°C y otra de 30°C. Esto es para poder observar el impacto que tiene la temperatura ambiente en los ciclos térmicos de los semiconductores. Para un análisis en el que se consideren el tipo de configuración, así como el impacto que se tiene en la potencia de los semiconductores, se estudian dos convertidores: el Terra HPC150 de la empresa ABB y el Supercharger de la empresa Tesla. A los MOSFET seleccionados para el análisis se les obtienen las pérdidas durante diferentes etapas del proceso de carga para así simular las pérdidas obtenidas durante todo el proceso. Para este propósito se usan herramientas como PLECS, Matlab y Simulink, dado que son necesarias para el manejo de datos que se emplea. En la práctica y en la literatura existe un amplio desarrollo de perfiles de carga, para el propósito de esta tesis se emplearán los más comunes, Constant Current-Constant Voltage (CC-CV), Multi-Stage Constant Current (MSCC), Boost Charging (BC) y Pulse Charging (PC). Para los cuales se empleará el ratio C para medir las corrientes, en donde 1C equivale a la corriente necesaria para cargar la batería completamente en una hora. Para el caso del convertidor de ABB, dado a las limitaciones de potencia, se emplearán corrientes de 1C y 2C. En el caso de Tesla, se consideran los perfiles de manera bastante similar a los de ABB, pero en vez de que se realice con corrientes máximas de 2C, se realiza con 3C, esto debido a que el convertidor puede entregar mayor potencia a las baterías. Los resultados obtenidos en la tesis muestran una similitud bastante evidente entre los perfiles con baja corriente en los convertidores. Esto se debe principalmente a las formas parecidas en que se comportan, así como a la manera en que se construyen los vectores de pérdidas de potencia a lo largo del ciclo de carga. En cuanto a las corrientes más altas, es decir, entre los perfiles CC-CV, MSCC y BC, este fenómeno se repite. Sin embargo, en cuanto al perfil de carga PC, se muestra un evidente deterioro de los semiconductores, superando con creces a los demás perfiles. También se aprecia el impacto que la frecuencia produce en los semiconductores, ya que el pulso de 25 Hz es menos dañino que el caso de 1 Hz. Esto se debe principalmente a que la frecuencia, sobre todo por la inercia térmica del disipador, está directamente relacionada con el tamaño de los ciclos térmicos. Los pulsos de corriente de 1 Hz son causantes de ciclos de temperaturas que pueden llegar a tener más de 70 °C de diferencia, mientras que en el caso de 25 Hz, la diferencia llega a solo 20 °C. La principal conclusión del estudio indica que el perfil de carga que presenta un mayor daño acumulado al punto de juntura de los MOSFET es el PC. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis de la variación en la fracción de amortiguamiento modal de estructuras de marcos de acero debido a daños en particiones de yeso(Universidad Técnica Federico Santa María, 2024-09) ;Jouvhomme Vera, Rosario Sophie ;Departamento de Obras CivilesCruz Doggenweiler, Cristian EmanuelLa fracción de amortiguamiento representa matemáticamente las fuentes de disipación de energía no incluidas explícitamente en el modelo estructural, como el amortiguamiento inherente de materiales, fricción entre componentes, interacción suelo-estructura no modelada y deterioro de elementos no estructurales, como los tabiques de yeso. Recientemente, guías de diseño por desempeño en California proponen aumentar esta fracción con la intensidad sísmica, especulando que el daño en elementos no estructurales incrementa su contribución. Sin embargo, no existen estudios que cuantifiquen este efecto. Este trabajo tiene como objetivo cuantificar la variación de las fracciones de amortiguamiento modal debido al deterioro de tabiques de yeso, y su relación con la amplitud de respuesta estructural. Se estudian estructuras de 3, 9, 20 y 50 pisos modeladas en OpenSees con tabiques explícitamente incluidos. El análisis incremental de franjas múltiples permitió evaluar la evolución del primer modo de amortiguamiento usando técnicas de identificación de sistemas. Se cuantificó también la variación del periodo y amortiguamiento equivalentes en función del desplazamiento máximo de techo normalizado (PRDR). Se observa que, para intensidades menores al sismo de servicio (SLE), el periodo fundamental disminuye entre 2.5% y 4.2% respecto a la estructura sin tabiques. Para mayores intensidades, el periodo converge al de la estructura sin tabiques. En cuanto al amortiguamiento del primer modo, se incrementa entre 8% y 45% para intensidades menores a SLE. Luego decae linealmente (en escala logarítmica) con el aumento del PRDR hasta estabilizarse en 4%-6% por sobre la estructura sin tabiques. Se identifican tres zonas de comportamiento: crecimiento inicial, meseta y decaimiento hacia intensidades MCE. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis del espectro de emisión de la evaporación de un agujero negro de Schwarzschild(Universidad Técnica Federico Santa María, 2025-06-16) ;Figueroa Villegas, Miguel Ángel ;Castillo Felisola, Oscar ;Departamento de FísicaDib Venturelli, ClaudioUn agujero negro de Schwarzschild tiene una temperatura de Hawking inversamente proporcional a su masa. De este modo, los agujeros negros se evaporan a una tasa creciente que disminuye su masa y aumenta su temperatura. A pesar de las propiedades termodinámicas de los agujeros negros, el espectro observado por un observador distante difiere del de un cuerpo negro ideal a causa de los denominados factores de cuerpo gris. En consecuencia, su consideración es necesaria para obtener el espectro resultante y para estudiar fuentes actuales de rayos gamma que puedan tener un origen debido a este fenómeno. No obstante, la presencia de dichos factores plantea interrogantes sobre la verdadera naturaleza térmica del espectro y del mismo agujero negro.En este trabajo investigamos el espectro de emisión de un agujero negro de Schwarzschild usando la teoría cuántica de campos en espacios curvos. Analizamos los factores de cuerpo gris que dan a lugar a las desviaciones con respecto a un cuerpo negro y estudiamos los efectos en el espectro de diferentes especies no masivas, con particular énfasis a partículas escalares y vectoriales. Adicionalmente, mediante un análisis semiclásico, se estudia el rol de los efectos dispersivos en la determinación del espectro térmico y se determina el tamaño efectivo como fuente emisora. - Some of the metrics are blocked by yourconsent settings
Thesis Análisis del impacto en la suficiencia energética de una mayor penetración de energía eólica en el SIC(Universidad Técnica Federico Santa María, 2013-09-26) ;Wetzel González, Rodrigo Guillermo ;Departamento de Ingeniería EléctricaGil Sagas, Esteban ManuelEn esta tesis se analiza la suciencia energetica del Sistema Interconectado Central chileno (SIC) frente a la incorporacion de energa eolica. El analisis basado en la simulacion de Monte Carlo considera variables estocasticas tales como salida forzada de las unidades generadoras y generacion de centrales eolicas, y es capaz de evaluar el impacto de restricciones operacionales (tales como lmites de las lneas de transmision y restricciones de las unidades termicas) que son difciles de capturar con las tecnicas analticas. Previo a la evaluacion de la suciencia, fue necesario crear los perles eolicos sinteticos. Se contaba con informacion de diferentes centros de medicion de la velocidad eolica en las regiones que componen el SIC. Como la velocidad se encontraba medida a 20m, pero las aspas de los generadores eolicos se encuentran a una altura promedio de 80m, se utilizo el metodo de Hellmann para extrapolar la velocidad. Posteriormente, se utiliz o un modelo SARIMA (1; 0; 1)x(1; 1; 1)24 para predecir los datos y entonces se obtuvo un conjunto de perles eolicos sinteticos. Luego, los perles de generacion eolica sinteticos se usaron como entrada estocastica en un esquema de Monte Carlo que utiliza un modelo de produccion del SIC para obtener metricas capaces de capturar el impacto de diferentes restricciones operacionales en la suciencia del sistema. Al analizar el efecto de diferentes niveles de generacion eolica se pudo observar que la mayora de los benecios, en terminos de incrementar la suciencia, ocurren cuando se agregan cerca de 500MW adicionales de generacion eolica. Con generacion eolica adicional, la suciencia permanece casi constante. Como el metodo propuesto fue capaz de captar restricciones operacionales, se pudo observar que en algunos casos la conexion de una nueva planta eolica podra causar un aumento en la energa no servida del sistema. Por ejemplo, al conectar la central Lebu Sur en el nodo Hualpen 220, despues que las otras centrales eolicas se encontraba operando, se produjo un leve aumento en la energa no servida como resultado de un cambio en el predespacho y congestion en el sistema de transmision. Tambien se analizo la ventaja de la diversicacion de la generacion eolica. Por ejemplo, se pudo observar que la energa no servida del sistema disminuye en cerca de un 7% cuando tres centrales eolicas de 100MW fueron conectadas en diferentes nodos, en lugar de una de 300MW conectada en uno. Otro resultado de este estudio fue descubrir que frente a una hidrologa seca la potencia eolica contribuye mas en la suciencia del sistema de potencia que frente a una hidrologa humeda, como resultado de la mayor disponibilidad de la reserva en giro. Finalmente, se propuso un metodo basado en simulacion para estimar el valor de capacidad de la potencia eolica. Se trabajo con tres centrales eolicas con diferentes factores de carga y diferentes tipos de correlacion entre la demanda del sistema y la generacion eolica. Con el proposito de validar el metodo, los resultados del metodo propuesto se compararon, y encontraron consistentes, con los resultado obtenidos usando el metodo recomendado por el IEEE Task Force on the Capacity Value of Wind Power. Los resultados mostraron que con correlacion positiva entre la generacion y demanda, el valor de capacidad puede mejorar en mas de un 50% con respecto a una correlacion negativa. - Some of the metrics are blocked by yourconsent settings
Thesis Aprendizaje profundo para la electrostática de macromoléculas: resolviendo la ecuación de Poisson-Boltzmann a partir de redes neuronales informadas por la física(Universidad Técnica Federico Santa María, 2024-08) ;Achondo Mercado, Martín Andrés ;Mura Mardones, Joaquin Alejandro ;Departamento de Ingeniería MecánicaCooper Villagran, ChristopherLas Redes Neuronales Informadas por la Física (PINNs) se han aplicado con éxito a la resolución de Ecuaciones Diferenciales Parciales (PDEs), abriendo nuevas posibilidades en la computación científica. En este trabajo se propone una metodología basada en PINNs para resolver la Ecuación de Poisson-Boltzmann (PB), aplicada a moléculas de distintos tamaños bajo el modelo de solvente implícito. Se revisaron formulaciones de PB compatibles con PINNs, arquitecturas de red adecuadas y factores que inciden en la minimización. Los resultados muestran buenos niveles de precisión en la energía de solvatación y el potencial de reacción, con errores del orden de 10⁻³. La implementación efectiva requiere regularización de la ecuación y el uso de redes separadas por subdominios (soluto y solvente), además de una representación precisa de la geometría molecular mediante mallas finas. Se identificaron desafíos al incorporar integrales basadas en datos experimentales en la función de pérdida. Como resultado, se desarrolló la librería XPPBE, orientada a facilitar el uso de esta metodología por parte de la comunidad científica. - Some of the metrics are blocked by yourconsent settings
Thesis Arquitectura orientada a eventos para redes de sensores aplicada a control de tráfico(Universidad Técnica Federico Santa María, 2017-01) ;Estrada Irribarra, Nicolás Alejandro ;Monge Anwandter, Raul ;Departamento de InformáticaAstudillo, HernánLas arquitecturas dirigidas por eventos (EDA) comenzaron a desarrollarse a principios de este siglo y tomaron fuerza este último tiempo. En la búsqueda de una nueva propuesta en el ámbito de procesamiento de eventos complejos (CEP), este documento presenta una prueba de escalabilidad entre una arquitectura orientada a eventos y una tradicional utilizando datos sintéticos. Finalmente, se diseñó e implementó un prototipo orientado a eventos utilizando datos reales bajo una simulación trace-driven con el fin de procesar eventos en tiempo real y reconocer patrones complejos generando alarmas ante anomalías detectadas. Del presente estudio, se obtuvo que EDA se comporta de mejor forma que una arquitectura tradicional para sistemas basados en sensores. Además, el prototipo implementado para CEP fue capaz de procesar eventos y detectar anomalías en tiempo real sin acceder a una base de datos históricos. - Some of the metrics are blocked by yourconsent settings
Thesis Aspectos cosmológicos en la teoría de Lovelock-Cartan cinco-dimensional(Universidad Técnica Federico Santa María, 2017) ;Ramírez Carrasco, Francisca Gabriela ;Castillo Felisola, Oscar ;Departamento de FísicaZerwekh Arroyo, Alfonso RaulEste trabajo estudia la posibilidad de interpretar la expansión acelerada del universo como un efecto geométrico derivado de una teoría en un espaciotiempo de cinco dimensiones con torsión no nula. Se parte de la teoría de Lovelock-Cartan, aunque se encuentra que el término que involucra explícitamente la torsión es topológico y no contribuye a las ecuaciones de movimiento, por lo que se trabaja finalmente con una teoría de Lovelock en cinco dimensiones. Se realiza una compactificación tipo Kaluza-Klein sobre una dimensión extra con topología de círculo (M⁵ → M⁴ × S¹), considerando únicamente los modos cero para centrarse en el sector de baja energía. Utilizando el formalismo de primer orden con formas diferenciales, los campos resultantes provienen de las formas conexión de Lorentz y de los vielbein, que definen la estructura métrica del espacio-tiempo. Bajo el principio cosmológico (homogeneidad e isotropía), se imponen condiciones de simetría a través de las ecuaciones de Killing. Como resultado, las ecuaciones de campo reducidas presentan dos ramas de soluciones: una asociada a un punto de Chern-Simons, y otra que describe universos en expansión, contracción u oscilación. En estas soluciones, el tamaño de la dimensión extra se comporta de forma inversa al tamaño del espaciotiempo observable, modulada por el campo dilatón, dentro de ciertas regiones del espacio de parámetros. - Some of the metrics are blocked by yourconsent settings
Thesis Calibración y validación de una metodología para incorporar la variabilidad en escenarios de deslizamiento cosísmico en el contexto de alerta temprana(Universidad Técnica Federico Santa María, 2021-01) ;Cabrera Espejo, Amanda Gabriela ;Departamento de Obras CivilesCatalan Mondaca, Patricio AndresLa estimación de zonas de inundación es uno de los principales objetivos de los sistemas de alerta temprana de tsunamis, pero sigue siendo un proceso complejo debido a la dificultad de determinar de manera oportuna las características de la ruptura sísmica. Actualmente, la distribución del deslizamiento cosísmico se obtiene mediante la inversión de datos geofísicos, lo que introduce una incertidumbre intrínseca. Este trabajo propone incorporar dicha incertidumbre en la generación de escenarios de deslizamiento mediante el Método de Variación de Fase, una herramienta que permite controlar la aleatoriedad con un único parámetro libre llamado "phi", logrando generar escenarios estocásticos de forma rápida. La metodología se calibra con datos del evento de Maule 2010, comparando 19 modelos de ruptura con datos de inundación en San Antonio, Constitución y Talcahuano, utilizando el método de máxima verosimilitud y el software HySea. La validación con el evento de Illapel 2015 sugiere que valores bajos de "phi" ajustan bien pero reducen la variabilidad, recomendando un valor cercano a pi dividido entre 6. Se comprueba además que es posible aplicar esta metodología en contextos de alerta temprana a partir de un único modelo de inversión. Finalmente, se analiza la sensibilidad de la deformación vertical al parámetro "phi", mostrando efectos significativos en Talcahuano, lo que resalta la importancia de considerar esta variabilidad en mapas predictivos y decisiones de evacuación. - Some of the metrics are blocked by yourconsent settings
Thesis Caracterización de la respuesta no drenada residual de relaves(Universidad Técnica Federico Santa María, 2021-06) ;Hormazábal Vergara, Nicolás Sebastián ;Departamento de Obras CivilesSuazo Fuentealba, Gonzalo HernanEsta tesis investiga el comportamiento no drenado de relaves de cobre mediante ensayos en equipo CDSS, aplicando cargas monótonas, cíclicas y post-cíclicas. Se utilizaron dos métodos de preparación de probetas: Moist Tamping (MT) y Slurry, este último con una metodología propia. Se realizaron ensayos de consolidación unidimensional en muestras MT (60–90% DMCS) y Slurry (60–80% contenido de sólidos), mostrando que las Slurry son más compresibles (Cc=0.1205) que las MT (Cc=0.0688). En corte monótono, las muestras MT mostraron comportamiento contractivo con φ = 28.5°, mientras que las Slurry tendieron a dilatar, presentando una transformación de fase (φ_TF = 23.1°). El método de preparación influye significativamente en la respuesta no drenada. Se observó una disminución de la razón de resistencia residual Su,r/σ'vc al aumentar la relación de vacíos. En muestras Slurry, no se encontró correlación directa entre Su,TF/σ'vc y contenido de sólidos. Se analizaron índices de fragilidad (IB) y resistencia no drenada en el peak (Su,y/σ'vc), mostrando comportamiento inversamente proporcional a IB. El confinamiento reduce la fragilidad, a diferencia de lo observado en arenas. Los valores de Su,y/σ'vc variaron entre 0.19 y 0.38. Tres ensayos triaxiales CIU con muestras MT (80% DMCS) y diferentes esfuerzos de consolidación (100, 200, 400 kPa) confirmaron ablandamiento por deformación, permitiendo definir líneas de estado crítico (CSL) comparables entre ensayos DSS y triaxial. Las pendientes CSL fueron similares, pero el intercepto Γ varió. En comportamiento cíclico, las muestras no alcanzaron Ru=1.0; se utilizó deformación angular de 3.75% como criterio de falla. La resistencia cíclica fue mayor en muestras al 80% DMCS. Ensayos post-cíclicos mostraron que la CSR no influye en la resistencia residual, pero sí en la resistencia peak y fragilidad, que disminuyen con mayores valores de Ru (0.25, 0.50, 0.75). Finalmente, se evaluó la influencia de la deformación angular máxima cíclica (γ_cyc,max), concluyendo que mayores deformaciones reducen la resistencia última y la rigidez inicial. Se propone un gráfico integrador entre Ru, γ_cyc,max, Su,y y Su,r, útil para análisis MEL, especialmente ante eventos sísmicos de gran magnitud. - Some of the metrics are blocked by yourconsent settings
Thesis Caracterización de las propiedades mecánicas de la madera estructural en edificios históricos de Valparaíso, Chile: Evaluación de piezas con y sin daño por ataque de termitas mediante aproximaciones experimentales(Universidad Técnica Federico Santa María, 2024) ;González Guastavino, Viviana Antonia ;Departamento de ArquitecturaJimenez Ramirez, Maria BelenLa presente investigación propone un estudio experimental para determinar las propiedades mecánicas de la madera de roble en probetas construidas con madera antigua rescatada de construcciones existentes que utilizan la técnica del tabique-adobillo en el Área Histórica de la ciudad de Valparaíso, Chile. El objetivo principal de este trabajo es evaluar y cuantificar el impacto del daño causado por los insectos xilófagos, como termitas, en la resistencia de la madera, al ser este agente uno de los principales factores de deterioro de la madera en las construcciones de la zona central del país. Asimismo, la investigación busca el evaluar si la carga prolongada en la madera, y el paso del tiempo, influye en las propiedades mecánicas y resistencia del material en servicio. La metodología de trabajo considera un estudio experimental y comparativo entre diferentes tipos de muestras. En primer lugar, se busca comparar la madera de roble antigua versus la madera nueva o comercial de la misma especie. El objetivo es observar y cuantificar las diferencias para dilucidar si existe una tendencia que permita establecer una correlación entre la carga prolongada de la madera, el paso del tiempo y sus propiedades mecánicas. El segundo grupo de muestras corresponde a aquellas con daños ocasionados por el ataque de insectos xilófagos. Para ello se estableció una herramienta para la clasificación visual de las probetas de acuerdo con el grado de daño superficial cuantificado en la zona donde se espera que se produzca el fallo en las probetas. La campaña experimental propuesta en este trabajo proyecta la ejecución ensayos destructivos convencionales con probetas a escala reducida para determinar las propiedades mecánicas de la madera, considerando los grupos anteriormente descritos, bajo cargas de compresión paralela y perpendicular a la fibra, de tracción perpendicular, cizalle paralelo y flexión estática de acuerdo con las normas chilenas que establecen los métodos y procedimientos para realizar estos ensayos (Instituto Nacional de Normalización, 2018c, 2018d, 2018f, 2018b, 2018e). Por último, se evalúan probetas de pino Oregón nuevas y los resultados se comparan con los de roble nuevo y antiguo, considerando que esta madera se utiliza para rehabilitar edificios históricos en Valparaíso, en reemplazo de piezas gravemente dañadas. Los resultados del primer grupo (probetas antiguas sin daños vs probetas nuevas) demostraron que la resistencia de la madera de la madera antigua extraída desde edificios históricos se vio reducida en la mayoría de los ensayos respecto a la madera nueva, en porcentajes que varían entre el 11% y el 60%. En particular, la resistencia a la compresión perpendicular de la madera de roble antigua (8.40 MPa) disminuyó un 34% respecto a la nueva (11.87 MPa), y en los ensayos de tracción perpendicular la resistencia de la madera antigua (2.92 MPa) disminuyó en un 41% respecto a la nueva (4.43 MPa). Asimismo, la resistencia al cizalle paralelo de las probetas de madera antigua (4.65 MPa) disminuyó un 60% respecto a las nuevas (8.62 MPa), y la resistencia a la flexión se redujo un 11% entre las probetas de roble antiguo (73.55 MPa) y nuevo (81.97 MPa). De igual forma, el módulo de elasticidad en flexión del roble antiguo (8344.33 MPa) se redujo en un 13% en comparación con la madera nueva (9535.84 MPa). Estos resultados permiten concluir que la carga prolongada de la madera influye negativamente en las variaciones de sus propiedades mecánicas, considerando la resistencia y rigidez. No obstante, la resistencia a la compresión paralela de la madera de roble nuevo disminuyó ligeramente (un 4.8%) respecto a las probetas de roble antiguo, de 43.40 MPa a 41.36 MPa. Este resultado podría considerarse como un valor fuera de la tendencia, y se espera poder aumentar la muestra en este ensayo en específico y conseguir resultados más consistentes Por otro lado, el grupo de ensayo de probetas clasificadas según su nivel de ataque por termitas (2) demostró que el daño superficial generado por el ataque de termitas tiene un impacto directo en la pérdida de la capacidad y rigidez de la madera ante diferentes tipos de cargas. La escala de clasificación visual permitió establecer una correlación cuantitativa que es inversamente proporcional entre el nivel de ataque y la perdida de resistencia en las probetas, corroborando la hipótesis de esta investigación: a mayor nivel de ataque menor resistencia de las piezas. Esto puede indicar que el daño por insectos xilófagos y el uso prolongado de una pieza estructural puede afectar negativamente a la integridad de una estructura de madera, viendo reducida su capacidad de carga y siendo más vulnerable a deformaciones y daños.