| dc.contributor.advisor | Martínez Torres, Duber | |
| dc.coverage.spatial | cead_-_ibagué | |
| dc.creator | Correa Sandoval, Juan Pablo | |
| dc.creator | Acosta, Cristian | |
| dc.date.accessioned | 2026-02-18T19:51:03Z | |
| dc.date.available | 2026-02-18T19:51:03Z | |
| dc.date.created | 2026-02-04 | |
| dc.identifier.uri | https://repository.unad.edu.co/handle/10596/78900 | |
| dc.description.abstract | Este trabajo presenta el desarrollo de una herramienta informática inteligente y
modular cuyo objetivo es automatizar los procesos de captura, selección y visualización de
imágenes georreferenciadas destinadas a la inspección de vías urbanas. Dicha herramienta
facilita la generación de conjuntos de datos (datasets) optimizados, fundamentales para el
entrenamiento y la evaluación de modelos de inteligencia artificial enfocados en la detección
de defectos en vías vehiculares.
La metodología implementada articula varios procesos clave: una aplicación móvil
captura simultáneamente video y coordenadas GPS, asegurando la correspondencia temporal
y espacial de los datos. Posteriormente, el sistema segmenta el video en clips basados en un
umbral de desplazamiento geográfico, logrando una notable reducción promedio del 96% en
el volumen de fotogramas al eliminar redundancia. De cada clip, se selecciona
automáticamente el frame más representativo utilizando un puntaje ponderado que combina
métricas objetivas de calidad visual como nitidez (Laplaciano), entropía y la puntuación de
calidad percibida HyperIQA.
Finalmente, los frames seleccionados son procesados utilizando el modelo Deep
Learning NAFNet para corregir la distorsión por movimiento, lo que resultó en una mejora de
la calidad visual promedio del 14,14% respecto al clip original. Los resultados
experimentales validaron la efectividad de la herramienta, demostrando que esta mejora
visual se traduce en un aumento absoluto del 20,93% en la tasa de detección de defectos por
el modelo YOLOv12, además de reducir falsos positivos. La herramienta final proporciona
una interfaz de usuario para la gestión de rutas, la visualización interactiva de trayectos sobre
mapas y la evaluación visual de los resultados de detección, estableciéndose como una
solución robusta para la generación estandarizada de datasets de alta calidad y la
optimización del proceso de inspección vial. El trabajo se desarrolla en el marco del proyecto institucional de investigación
PGI3902ECBTI2024 de la UNAD, lo cual refuerza su pertinencia y articulación con las
líneas de investigación de la Escuela de Ciencias Básicas, Tecnología e Ingeniería (ECBTI). | |
| dc.format | pdf | |
| dc.title | Desarrollo de una herramienta inteligente para la captura, selección y visualización automatizada de imágenes georreferenciadas en la inspección de vías urbanas | |
| dc.type | Proyecto aplicado | |
| dc.subject.keywords | Inteligencia Artificial | |
| dc.subject.keywords | Internet de las cosas (IoT) | |
| dc.subject.keywords | Sistemas de información Geográfica (SIG) | |
| dc.description.abstractenglish | This work presents the development of an intelligent and modular computer tool
aimed at automating the capture, selection, and visualization processes of georeferenced
images intended for urban road inspection. This tool facilitates the generation of optimized
datasets, which are essential for training and evaluating artificial intelligence models focused
on detecting defects in vehicular roadways.
The implemented methodology articulates several key processes: a mobile application
simultaneously captures video and GPS coordinates, ensuring the temporal and spatial
correspondence of the data. Subsequently, the system segments the video into clips based on
a geographical displacement threshold, achieving a notable average reduction of 96% in
the volume of frames by eliminating redundancy. From each clip, the most representative
frame is automatically selected using a weighted score that combines objective visual quality
metrics such as sharpness (Laplacian), entropy, and the perceived quality score HyperIQA.
Finally, the selected frames are processed using the Deep Learning model NAFNet to
correct motion blur, resulting in an average visual quality improvement of 14.14% compared
to the original clip. Experimental results validated the tool's effectiveness, demonstrating that
this visual improvement translates into an absolute increase of 20.93% in the defect detection
rate by the YOLOv12 model, in addition to reduce false positives. The final tool provides a
user interface for route management, interactive visualization of routes on maps, and visual
evaluation of detection results, establishing itself as a robust solution for the standardized
generation of high-quality datasets and the optimization of the road inspection process. The
work is developed within the framework of the UNAD institutional research project
PGI3902ECBTI2024, which reinforces its relevance and alignment with the research lines of
the School of Basic Sciences, Technology, and Engineering (ECBTI). | |