Benítez Resrepo, Hernán DaríoVargas Cardona, Hernán DaríoJiménez Sierra, David Alejandro2024-06-112024-06-112024https://vitela.javerianacali.edu.co/handle/11522/2211Recientemente los avances en la tecnología de sensores han conllevado a un incremento en la disponibilidadde imágenes (a una alta resolución espacial y espectral) hiper-espectrales, multi-espectrales(ME), y de radar de apertura sintética (SAR), las cuales permiten describir un objeto o un fenómeno. Cada sensor captura diferente información que explica distintas características físicas. Por ejemplo, un sensor SAR captura información relacionada a características de la superficie (como la aspereza, estructura geométrica, y orientación), y un sensor ME captura la reflectancia de los objetos a diferentes longitudes de onda. Sin embargo, la información obtenida en tierra por un solo sensor es limitada para sacar conclusiones confiables sobre algún fenómeno como la detección de cambios en la cobertura del suelo y el crecimiento de biomasa. Por el contrario, las técnicas de fusión de imágenes integran información espectral, espacial y temporal de diferentes sensores con el fin de obtener información apropiada y generar imágenes adecuadas para la percepción humana y de maquina. La fusión de imágenes es el proceso de combinar dos o más imágenes en una sola, la cual debe de ser más informativa y por lo tanto útil en diferentes aplicaciones de sensado remoto (i.e. geología, agricultura, miliar, etc). Por ende, generalmente es deseado el uso de datos capturados por diferentes sensores. Aunque la fusión de datos contribuye a mejorar el desempeño en tareas de clasificación y detección en sensado remoto, es una tarea que es compleja. Por ejemplo, las diferentes resoluciones, unidades,dimensiones, y formatos son retos impuestos por los datos sin procesamiento alguno. Además, los datos homogéneos (i.e. datos captados por el mismo sensor) presentan pequeñas variaciones intraclase y distorsiones por brillo (artefactos), para el caso de datos heterogéneos (i.e. datos captados por diferentes sensores) los pixeles poseen diferentes firmas y por lo tanto siguen un comportamiento estadístico diferente lo cual dificulta la extracción de información relevante de los datos fusionados. En consecuencia, puede ser necesario el uso de pre-procesamiento y post-procesamiento. A pesar de que numerosos métodos propuestos en las últimas décadas para la fusión de datos que se enfocan en la extracción de características, embebimiento de espacios, modelamiento de datos, adaptación de dominio, transformación de datos, aprendizaje por transferencia, y traducción de imagen a imagen, el análisis estructural inducido por los grafos no ha sido ampliamente explorado. Más precisamente, los actuales algoritmos de fusión basados en grafos han mostrado su habilidad para lidiar con la variabilidad que presentan el formato de los datos y han permitido de una manera flexible representar la relación entre entidades de datos. No obstante, los métodos de fusión de datos basados en grafos no explotan la información prior embebida en los datos (i.e. procesamiento de señales en grafos), son altamente impactados por la forma de representar una imagen (i.e. pixelescomo nodos, super-píxeles como nodos, y parches como nodos), y la regla de fusión que se utiliza usualmente depende más de la matriz de pesos que de las bases espectrales.136 p.application/pdfengBiomass estimationBlock matchingChange detectionGraphsGraph fusionGraph signal processingOptimizationGraph based Image fusion and features extraction for remote sensing applicationshttp://purl.org/coar/resource_type/c_db06https://creativecommons.org/licenses/by-nc-nd/4.0/http://purl.org/coar/access_right/c_abf2