Show simple item record

dc.contributor.advisorHernandez Arbelaez, Claudia Patricia
dc.coverage.spatialcead_-_josé_celestino_mutis
dc.creatorBurbano Guererro, Judith Marcela
dc.date.accessioned2025-06-24T16:05:42Z
dc.date.available2025-06-24T16:05:42Z
dc.date.created2025-06-05
dc.identifier.urihttps://repository.unad.edu.co/handle/10596/70289
dc.description.abstractLa baja calidad de los datos ha llevado a las empresas del sector bancario a tener que mejorar y priorizar su data. Para preparar la data tiene como objetivo inicial: preparar, extraer, transformar y cargar los datos (Microsoft, 2025). Este proyecto de grado esta enfocado diseñar un modelo cualitativo para valorar la calidad de los datos en el sector bancario colombiano, partiendo de la necesidad de garantizar información confiable para la toma de decisiones estratégicas, operativas y regulatorias. El modelo está construido alrededor de las dimensiones de la gobernanza de datos, las reglas y regulaciones internas, la cultura organizacional, los procesos de gestión de datos y la percepción de los usuarios internos sobre la calidad de la información que tengan las entidades. Basado en la triangulación de fuentes, se identifican los criterios clave que afectan la calidad de los datos y los criterios para la evaluación se flexibilizan según la situación de cada instituto bancario individual. La metodología propuesta busca equilibrar la transferencia y optimización de datos mediante una planificación cuidadosa. Se priorizan los datos críticos y se emplean gestiones de corrección de data que nos permite el sistema avaluar los errores. Los resultados para implementar este modelo deberá encontrar y evaluar la data mal diligencia y no tenga coherencia con el campo a llenar y el tipo de cliente. A medida que se valla tranformando la data a una buena calidad de data los problemas de calidad, duplicados y anomalías se van arreglando en el proceso (Microsoft, 2025).
dc.formatpdf
dc.titleDiseño de un modelo para valorar la calidad de datos en el sector bancario colombiano
dc.typeProyecto aplicado
dc.subject.keywordsMachine learning
dc.subject.keywordsBusinnes intelligence
dc.subject.keywordsCalidad de datos
dc.subject.keywordsTecnología
dc.subject.keywordsAlmacenamiento
dc.subject.keywordsToma decisiones
dc.description.abstractenglishData migrations involve four steps: preparing, extracting, transforming, and loading data from one system to an updated system with new technology and a better visual interface (Microsoft, 2025). This approach is not without its problems, including delays associated with cleansing and transformation time, as well as the expense often associated with hardware and software. There are also concerns about data loss, failures, and integrity that must be considered between systems, which can impact or motivate data migrations. The proposed methodology aims to balance data transfer and optimization through careful planning. Critical data is prioritized, and data correction management is applied using the capabilities of the new system, allowing the identification and evaluation of errors. The results show that a structured strategy reduces time, cost, and failures, ensuring a more efficient and higher-quality migration. This methodology helps detect and evaluate improperly filled or inconsistent data according to the required fields and customer types. For a data migration implementation, once planning is completed and the migration is designed, teams begin execution. They develop the data migration solution based on the requirements and follow the step-by-step migration guide defined during the planning phase. As data is migrated, it is ensured that the transfer occurs correctly and without conflicts, quality issues, duplicates, or anomalies (Microsoft, 2025).
dc.subject.categoryCiencia de datos


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record