| dc.contributor.advisor | Hernandez Arbelaez, Claudia Patricia | |
| dc.coverage.spatial | cead_-_josé_celestino_mutis | |
| dc.creator | Burbano Guererro, Judith Marcela | |
| dc.date.accessioned | 2025-06-24T16:05:42Z | |
| dc.date.available | 2025-06-24T16:05:42Z | |
| dc.date.created | 2025-06-05 | |
| dc.identifier.uri | https://repository.unad.edu.co/handle/10596/70289 | |
| dc.description.abstract | La baja calidad de los datos ha llevado a las empresas del sector bancario a tener que mejorar y priorizar su data. Para preparar la data tiene como objetivo inicial: preparar, extraer, transformar y cargar los datos (Microsoft, 2025).
Este proyecto de grado esta enfocado diseñar un modelo cualitativo para valorar la calidad de los datos en el sector bancario colombiano, partiendo de la necesidad de garantizar información confiable para la toma de decisiones estratégicas, operativas y regulatorias. El modelo está construido alrededor de las dimensiones de la gobernanza de datos, las reglas y regulaciones internas, la cultura organizacional, los procesos de gestión de datos y la percepción de los usuarios internos sobre la calidad de la información que tengan las entidades.
Basado en la triangulación de fuentes, se identifican los criterios clave que afectan la calidad de los datos y los criterios para la evaluación se flexibilizan según la situación de cada instituto bancario individual. La metodología propuesta busca equilibrar la transferencia y optimización de datos mediante una planificación cuidadosa. Se priorizan los datos críticos y se emplean gestiones de corrección de data que nos permite el sistema avaluar los errores. Los resultados para implementar este modelo deberá encontrar y evaluar la data mal diligencia y no tenga coherencia con el campo a llenar y el tipo de cliente. A medida que se valla tranformando la data a una buena calidad de data los problemas de calidad, duplicados y anomalías se van arreglando en el proceso (Microsoft, 2025). | |
| dc.format | pdf | |
| dc.title | Diseño de un modelo para valorar la calidad de datos en el sector bancario colombiano | |
| dc.type | Proyecto aplicado | |
| dc.subject.keywords | Machine learning | |
| dc.subject.keywords | Businnes intelligence | |
| dc.subject.keywords | Calidad de datos | |
| dc.subject.keywords | Tecnología | |
| dc.subject.keywords | Almacenamiento | |
| dc.subject.keywords | Toma decisiones | |
| dc.description.abstractenglish | Data migrations involve four steps: preparing, extracting, transforming, and loading data from one system to an updated system with new technology and a better visual interface (Microsoft, 2025).
This approach is not without its problems, including delays associated with cleansing and transformation time, as well as the expense often associated with hardware and software. There are also concerns about data loss, failures, and integrity that must be considered between systems, which can impact or motivate data migrations.
The proposed methodology aims to balance data transfer and optimization through careful planning. Critical data is prioritized, and data correction management is applied using the capabilities of the new system, allowing the identification and evaluation of errors. The results show that a structured strategy reduces time, cost, and failures, ensuring a more efficient and higher-quality migration. This methodology helps detect and evaluate improperly filled or inconsistent data according to the required fields and customer types. For a data migration implementation, once planning is completed and the migration is designed, teams begin execution. They develop the data migration solution based on the requirements and follow the step-by-step migration guide defined during the planning phase. As data is migrated, it is ensured that the transfer occurs correctly and without conflicts, quality issues, duplicates, or anomalies (Microsoft, 2025). | |
| dc.subject.category | Ciencia de datos | |