Please use this identifier to cite or link to this item:
https://repository.unad.edu.co/handle/10596/77372Full metadata record
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.advisor | Perea, Vanessa Catherine | |
| dc.coverage.spatial | cead_-_bucaramanga | |
| dc.creator | Rueda Suarez, Leidy Paola | |
| dc.creator | Galvis Hernández, Leidy Katherine | |
| dc.creator | Forero Rueda, Laura Juliana | |
| dc.creator | Porras Barrionuevo, Jesús Alberto | |
| dc.creator | Borras Camacho, Tatiana Alexandra | |
| dc.date.accessioned | 2025-12-15T21:27:00Z | |
| dc.date.available | 2025-12-15T21:27:00Z | |
| dc.date.created | 2025-12-11 | |
| dc.identifier.uri | https://repository.unad.edu.co/handle/10596/77372 | |
| dc.description.abstract | El desarrollo y la integración de algoritmos de inteligencia artificial (IA), especialmente los basados en redes neuronales profundas, han transformado el diagnóstico por imágenes en la resonancia magnética (RM) y la tomografía computarizada (TC). Estos algoritmos permiten una mejora significativa en la calidad de imagen mediante la corrección automática de artefactos, la optimización de la resolución espacial y la reducción de los tiempos de escaneo, lo cual favorece la eficiencia clínica, la precisión diagnóstica y la experiencia del paciente.No obstante, la adopción clínica de estas tecnologías enfrenta desafíos relevantes, como la falta de estandarización, la necesidad de validación rigurosa en contextos reales, la presencia de sesgos en los conjuntos de datos de entrenamiento y la limitada comprensión de los modelos por parte del personal médico. Ante estas limitaciones, la Inteligencia Artificial Explicable (XAI) emerge como un componente crucial para garantizar la transparencia, trazabilidad y confianza en la toma de decisiones automatizadas, particularmente en entornos hospitalarios con recursos limitados o alta carga asistencial. El presente estudio, sustentado en una revisión sistemática de literatura reciente, entre los años 2010 y 2025, analiza el impacto clínico y ético de los algoritmos de IA aplicados a imágenes médicas. Se abordan los beneficios técnicos como la segmentación anatómica precisa y la reducción de variabilidad interobservador y los retos de interpretación clínica, integración operativa y responsabilidad médica. Asimismo, se propone fortalecer la colaboración entre ingeniería, radiología y bioética como condición indispensable para una adopción segura, efectiva y humanizada de la IA en el ámbito diagnóstico. | |
| dc.format | ||
| dc.title | Impacto clínico de la Inteligencia Artificial Explicable (XAI) en la optimización y calidad de las imágenes por resonancia magnética: una revisión documental | |
| dc.type | Diplomado de profundización para grado | |
| dc.subject.keywords | Aprendizaje | |
| dc.subject.keywords | Inteligencia Artificial | |
| dc.subject.keywords | Validación Clínica | |
| dc.description.abstractenglish | The development and integration of artificial intelligence (AI) algorithms, particularly those based on deep neural networks, have significantly transformed diagnostic imaging in magnetic resonance imaging (MRI) and computed tomography (CT). These algorithms enable substantial improvements in image quality through automatic artifact correction, spatial resolution enhancement, and reduced scanning times, thereby promoting clinical efficiency, diagnostic accuracy, and patient experience. However, the clinical adoption of these technologies faces notable challenges, such as the lack of standardization, the need for rigorous validation in real-world settings, the presence of biases in training datasets, and limited understanding of these models by healthcare professionals. In response to these limitations, Explainable Artificial Intelligence (XAI) has emerged as a crucial component to ensure transparency, traceability, and trust in automated decision-making particularly in hospital environments with limited resources or high clinical workload. This study, based on a systematic review of recent literature from 2010 to 2025, analyzes the clinical and ethical impact of AI algorithms applied to medical imaging. It addresses technical benefits such as precise anatomical segmentation and reduced inter-observer variability, as well as challenges related to clinical interpretability, operational integration, and medical accountability. The study also proposes strengthening collaboration among engineering, radiology, and bioethics as an essential condition for the safe, effective, and human-centered adoption of AI in diagnostic practice. | |
| Appears in Collections: | Diplomado de Profundización en Control de la Calidad en Radiología Digital | |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| ghernandezlk.pdf | 664.58 kB | Adobe PDF | ![]() View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
