Thesis:  Explicabilidad Visual para Diagnóstico Histopatológico:  Generando Contrafactuales a través de GANs
Date
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Abstract
The increasing integration of artificial intelligence (AI) into medical diagnosis, particularly in the analysis of histopathological images, underscores the critical need for models that are not only accurate but also interpretable. This thesis addresses the challenge of explainability in deep learning by developing and evaluating an advanced system for the generation of synthetic histopathological images and the creation of visual counterfactual explanations. The system is based on a StyleGAN2-ADA architecture, complemented by an encoder for projecting real images into the latent space and a classifier to guide the semantics of the generated images. The training process was thoroughly optimized, demonstrating that a two-stage strategy—prioritizing reconstruction before introducing the classification task—significantly improves the quality of the generated images, achieving an Fréchet Inception Distance (FID) of 16.2. Furthermore, the impact of different loss formulations was analyzed, identifying that a balanced configuration (Learned Perceptual Image Patch Similarity (LPIPS) of 0,15, Peak Signal-to-Noise Ratio (PSNR) of 28,0 dB and Structural Similarity Index Measure (SSIM) of 0,80) offers an optimal trade-off between numerical fidelity, perceptual quality, and consistency in the latent space. Exploration of this latent space revealed its ability to organize histopathological features in a disentangled and semantically coherent manner, clearly distinguishing between benign and cancerous tissue while capturing intra-class variability. The core of this work lies in a novel method for generating visual counterfactuals, which illustrate how minimal, specific modifications to an image can alter a classifier’s prediction. The method enables the generation of latent interpolation trajectories that visualize the gradual transition between classes, identifying decision boundary inflection points. Moreover, our proposed method was compared to “Chexplaining in Style”, demonstrating drastically superior computational efficiency (3.1s vs. 224.7s to generate 50 counterfactuals) and greater applicability to the histopathology domain by producing diverse and semantically coherent explanations, unlike the reference method which failed to induce relevant class changes. The system’s validation included quantitative and qualitative analysis, as well as an extensive interdisciplinary evaluation with 13 healthcare professionals, including medical technologists, biochemists, and physicians with an average of 11 years of experience. Results showed a high degree of realism in synthetic images (70% fool rate) , excellent preservation of biological patterns in reconstructions (average visual realism of 4.12/5) , and high perceived usefulness of counterfactuals as a diagnostic support tool (92.3% rated “very useful” or “extremely useful”), especially in complex cases. This work makes a significant contribution to the field of explainable AI (XAI) in histopathology, providing a robust framework for generating high-fidelity images and intuitive visual explanations that can improve trust and understanding of deep learning models in critical clinical applications. The methodologies and findings presented lay the groundwork for future research aimed at integrating these tools into diagnostic practice.
La creciente integración de la inteligencia artificial (IA) en el diagnóstico médico, particularmente en el análisis de imágenes histopatológicas, subraya la necesidad crítica de modelos que no solo sean precisos, sino también interpretables. Esta tesis aborda el desafío de la explicabilidad en el aprendizaje profundo mediante el desarrollo y la evaluación de un sistema avanzado para la generación de imágenes histopatológicas sintéticas y la creación de explicaciones contrafactuales visuales. El sistema se fundamenta en una arquitectura StyleGAN2-ADA, complementada con un codificador para la proyección de imágenes reales al espacio latente y un clasificador para guiar la semántica de las imágenes generadas. Se investigó exhaustivamente la optimización del proceso de entrenamiento, demostrando que una estrategia en dos etapas —priorizando la reconstrucción antes de introducir la tarea de clasificación— mejora significativamente la calidad de las imágenes generadas, logrando un Fréchet Inception Distance (FID) de 16,2. Asimismo, se analizó el impacto de diferentes formulaciones de la función de pérdida, identificando que una configuración balanceada (Learned Perceptual Image Patch Similarity (LPIPS) de 0,15, Peak Signal-to-Noise Ratio (PSNR) de 28,0 dB y Structural Similarity Index Measure (SSIM) de 0,80) ofrece un equilibrio óptimo entre fidelidad numérica, calidad perceptual y consistencia en el espacio latente. La exploración de este espacio latente reveló su capacidad para organizar las características histopatológicas de manera desentrelazada y semánticamente coherente, diferenciando claramente entre tejido benigno y canceroso y capturando la variabilidad entre clases. El núcleo de este trabajo radica en un novedoso método para generar contrafactuales visuales, que ilustran cómo modificaciones mínimas y específicas en una imagen pueden alterar la predicción de un clasificador. Se demostró la capacidad de generar trayectorias de interpolación latente que visualizan la transición gradual entre clases, identificando puntos de inflexión en la decisión del clasificador. Además, se comparó el método propuesto con “Chexplaining in Style”, demostrando una eficiencia computacional drásticamente superior (3,1s frente a 224,7s para generar 50 contrafactuales) y una mayor aplicabilidad al dominio histopatológico, al generar explicaciones diversas y semánticamente coherentes, a diferencia del método de referencia que no logró inducir cambios de clase relevantes. La validación del sistema incluyó una evaluación cuantitativa y cualitativa, así como una extensa evaluación interdisciplinaria con 13 profesionales de la salud, incluyendo tecnólogos médicos, bioquímicos y médicos con un promedio de 11 años de experiencia. Los resultados indicaron un alto grado de realismo en las imágenes sintéticas (70% de fool rate), una excelente conservación de patrones biológicos en las reconstrucciones (realismo visual promedio de 4,12 sobre un máximo de 5) y una alta utilidad percibida de los contrafactuales como herramienta de apoyo diagnóstico (92,3% de calificación “muy útil” o “extremadamente útil”), especialmente en casos complejos. Este trabajo contribuye significativamente al campo de la IA explicable (xAI) en histopatología, ofreciendo un marco robusto para generar imágenes de alta calidad y explicaciones visuales intuitivas que pueden mejorar la confianza y la comprensión de los modelos de aprendizaje profundo en aplicaciones clínicas críticas. Las metodologías y hallazgos presentados sientan las bases para futuras investigaciones orientadas a la integración de estas herramientas en la práctica diagnóstica.
