Browsing by Subject "Machine Learning"
Now showing 1 - 20 of 24
Results Per Page
Sort Options
Item Análisis descriptivo y predictivo para la vigilancia de los casos de dengue grave en la ciudad de Cali(Pontificia Universidad Javeriana de Cali, 2023) Mena Ríos, Andrés Mauricio; Hurtado Murillo, Faber Esteban; Sánchez Andrade, Jefferson; Arango Londoño, DavidEste proyecto de ciencia de datos desarrolla un modelo predictivo que permite estimar la cantidad de casos de dengue grave que ocurren en un determinado momento en la ciudad de Cali. Para eso, se realiza un análisis de la dinámica de la enfermedad, considerando aspectos como la temporalidad, la incidencia geográfica y algunas variables sociodemográficas; además, se construyen modelos predictivos basados en cuatro algoritmos de Machine Learning, el uso de fuentes de datos informales, y la incorporación de una variable novedosa como predictor. La primera parte del proyecto se enfoca en análisis descriptivos del dengue grave en Cali, a partir del procesamiento de los registros históricos oficiales, con el propósito de comprender patrones y tendencias de la enfermedad e identificar factores relacionados con su incidencia. La segunda sección del proyecto gira alrededor de la determinación del mejor modelo para predecir la cantidad de casos de dengue en Cali, haciendo uso de una variedad de recursos de la ciencia de datos para la construcción, evaluación y análisis de los candidatos.Item Automatización de la detección y diagnóstico de leishmaniasis por medio de la identifi cación de parásitos en imágenes de placas de laboratorio(Pontificia Universidad Javeriana Cali, 2023) Cardozo Aricapa, Daniel Fernando; Álvarez Vargas, Gloria InésLa leishmaniasis es una enfermedad causada por más de 20 especies del género Leishmania un protozoo parasito. Esta enfermedad se transmite por la picadura de flebótomos hembra infectados, que necesitan ingerir sangre para producir huevos. A nivel mundial, se encuentra entre las diez enfermedades tropicales desatendidas con más de 12 millones de personas infectadas con 0,9 a 1,6 millones de nuevos casos al año y entre 20.000 a 30.000 defunciones. En la actualidad, las estrategias de prevención y control disponibles para el manejo de la leishmaniasis son limitadas, por lo cual se requiere de herramientas efectivas para el diagnóstico temprano y tratamiento adecuado. Es por esto por lo que nuestro objetivo es desarrollar un modelo automatizado capaz de realizar la identificación del parasito y diagnóstico de Leishmaniasis usando imágenes de placas de laboratorio en pacientes con sospecha clínica de la enfermedad. Para estos proponemos utilizar diferentes algoritmos de clasificación que nos permitan realizar la detección de parásitos de Leishmania por medio de la extracción de características, creación de imágenes integrales y clasificación. Como resultados esperados se espera contar con un modelo diagnostico adecuado basado en placas de laboratorio que permita realizar el diagnostico de forma oportuna y accesible capaz de funcionar de forma eficiente en cualquier área que lo requiera. Finalmente, esta tecnología será una herramienta fundamental para la salud publica en áreas endémicas en pro de disminuir la morbimortalidad de la enfermedad.Item Clasificación de datos MOCAP sobre una disciplina deportiva usando modelos de Machine Learning(Pontificia Universidad Javeriana Cali, 2024) García Moncayo, Mario Fernando; Valencia Marín, Cristhian KaoriEste proyecto analiza en profundidad los datos capturados para clasificar categorías de movimiento en jugadores de tenis, utilizando herramientas de reconocimiento de actividades humanas (HAR) y captura de movimiento (MOCAP). Con un enfoque en los jugadores de la liga de tenis de Caldas, se busca detectar y extraer datos precisos sobre la posición y orientación de los atletas durante diversas acciones deportivas. Los datos, que fueron previamente obtenidos y organizados sin necesidad de una recolección nueva, están en formato BVH (Biovision Hierarchy), lo que permite representar con detalle la estructura y cinemática del cuerpo humano en movimiento. La investigación emplea modelos avanzados de aprendizaje automático para clasificar y analizar patrones biomecánicos en el tenis, con técnicas como el análisis de componentes principales (PCA) y algoritmos de clasificación para diferenciar movimientos específicos como golpes de derecha, reveses y servicios. Este enfoque facilita el estudio de variaciones entre jugadores en términos de eficiencia técnica y biomecánica. El objetivo final es proporcionar una base para recomendaciones personalizadas que optimicen el entrenamiento, permitiendo a entrenadores y jugadores ajustar técnicas y estrategias. Así, el proyecto tiene el potencial de ofrecer una herramienta para análisis deportivo avanzadoItem Contrastación de técnicas econométricas tradicionales y aprendizaje automático en la predicción de los precios de los apartamentos de Santiago de Cali en el 2019(Pontificia Universidad Javeriana Cali, 2023) Dow Valenzuela, Sebastián; Salazar Jaramillo, Fabián Andrés; Girón Cruz, Luis EduardoEn el presente trabajo se pretenden contrastar las predicciones de los precios obtenidos por técnicas tradicionales de econometría y técnicas computacionales basadas en el aprendizaje automático. A partir de datos de 5074 apartamentos en Cali en el 2019 con sus características obtenidos de las páginas de ventas de inmuebles y utilizando regresión múltiple, K-NN, regresión LASSO y bosques aleatorios, encontrando que, en general, las técnicas de Machine Learning arrojan predicciones más precisas que el método de pronóstico fundamentado en regresión múltiple pero no por un margen muy amplioItem Desarrollo de modelo de clasificación de suelo urbano recreativo basado en deep learning usando imágenes satelitales(Pontificia Universidad Javariana Cali, 2024) Chía Bejarano, Jairo David; Castaño Cardona, Nicolás; Castaño Idárraga, Omar AndrésEl presente documento se centra en el planteamiento de un proyecto que se enfoca en el fenómeno global del rápido crecimiento urbano, donde la expansión de las ciudades surge de manera acelerada y con ella la necesidad e importancia de tener zonas verdes y espacios recreativos dentro de ellas. La falta de información precisa sobre la ubicación y extensión de estos espacios ha llevado a deficiencias en la planificación urbana; en respuesta a esta problemática, se propone la implementación de un modelo automático basado en Redes Neuronales Convolucionales (CNN) para la detección y clasificación de parques y canchas deportivas en imágenes satelitales urbanas. El objetivo fundamental es estimar la cantidad de áreas recreativas en diferentes zonas urbanas, proporcionando datos cruciales para respaldar políticas públicas de expansión y mejorar la calidad de vida en entornos urbanos. Con el fin de llevar a cabo este propósito, inicialmente se planteó el diseño y entrenamiento de un modelo de CNN que clasifica y cuenta estas áreas y espacios recreativos, para posteriormente evaluar y comparar la efectividad del modelo propuesto con modelos de clasificación. Los resultados esperados abarcan la exitosa implementación del modelo en un repositorio público, la creación de una documentación detallada del proceso, y el desarrollo de scripts que faciliten la replicabilidad del enfoque propuesto y de manera propositiva, la creación de una herramienta interactiva que facilite la implementación del modelo y los resultados obtenidos.Item Desarrollo de un sistema de monitoreo y análisis para la calidad del aire usando Internet de las Cosas (IoT) y tecnologías de Machine Learning (ML) en tres puntos geográficos de la ciudad de Bogotá(Pontificia Universidad Javeriana Cali, 2025) Ariza Gutiérrez, Alvaro Mauricio; Sierra Guzmán, Carlos Johany; Tamura Morimitsu, EugenioEste proyecto desarrolla un sistema inteligente de monitoreo, análisis y predicción de la calidad del aire en tres puntos estratégicos de Bogotá, integrando tecnologías de Internet de las Cosas (IoT) y Machine Learning (ML). El objetivo es ofrecer información en tiempo real y predicciones sobre los niveles de monóxido de carbono (CO) y material particulado fino (PM2.5), dos de los contaminantes atmosféricos más críticos para la salud pública urbana. El sistema surge como una solución complementaria a la limitada cobertura de las estaciones oficiales, proponiendo una alternativa de bajo costo, escalable y descentralizada. Para la captura de datos se utilizan sensores SEN0564 para CO y PMS5003 para PM2.5, conectados a microcontroladores ESP32 programados en Arduino IDE. Estos dispositivos envían los datos a la plataforma en la nube ThingSpeak, donde se almacenan, visualizan y procesan los datos. La etapa analítica y predictiva se desarrolla en Python, utilizando Google Colab Notebooks, donde se aplican técnicas de análisis exploratorio (EDA) y se entrenan redes neuronales LSTM (Long Short-Term Memory), apropiadas para series temporales. Para cada contaminante y cada medidor se construye un modelo independiente, optimizado con Keras Tuner y Random Search para encontrar los mejores hiperparámetros. Se obtuvieron resultados (por ejemplo, R² superiores al 0.98 y RMSE bajos), lo cual valida la precisión del enfoque empleado. En paralelo, se diseñó una interfaz web con Google Sites, donde se integran las visualizaciones dinámicas desde ThingSpeak. Además, se implementó un sistema de alertas automáticas con Telegram, programado directamente desde ThingSpeak mediante TimeControl, React y ThingHTTP. Las alertas no se generan con base en el AQI, sino mediante umbrales definidos por contaminante, por ejemplo, valores mayores a 4.5 ppm para CO o 9.1 μg/m³ para PM2.5, notificando a un grupo de usuarios cuando se superan dichos niveles. La combinación de estas herramientas permite desplegar un sistema modular, automatizado y transparente, capaz de generar alertas tempranas, visualizar tendencias de contaminación y ofrecer predicciones horarias, todo sin depender de infraestructura costosa. El sistema puede escalarse fácilmente a otras zonas urbanas, incorporarse a estrategias de gestión ambiental y contribuir a fortalecer la participación ciudadana en el monitoreo de la calidad del aire.Item Desarrollo de un sistema de recomendaciones personalizadas en la plataforma LMS KME360(Pontificia Universidad Javeriana Cali, 2025) Samacá Romero, Carolina; Peña Fajardo, Enrique José; Álvarez Vargas, Gloria Inés; Linares Ospina, Diego LuisEste proyecto propone el desarrollo de un sistema de recomendación de contenidos y cursos personalizado para la plataforma LMS kme360. El sistema se diseñará de manera modular y escalable, con la capacidad de adaptarse a las necesidades de cada cliente futuro y a la configuración específica de sus instancias. La implementación de este sistema permitirá que la plataforma pueda ofrecer una experiencia de aprendizaje más personalizada y efectiva a sus usuarios, lo que se traducirá en una mayor satisfacción del cliente, un mejor aprovechamiento de los recursos disponibles y un potencial aumento en la tasa de finalización de los cursos. El proyecto se desarrollará siguiendo la metodología CRISP-DM, que establece seis etapas: comprensión del negocio, comprensión de los datos, preparación de los datos, modelado, evaluación y despliegue. Como resultado principal del proyecto, se obtendrá un modelo de recomendación que responderá a las características puntuales del cliente seleccionado. Se espera que este resultado impacte positivamente en la experiencia de aprendizaje de los usuarios de kme360, aumentando su satisfacción y compromiso con la plataforma.Item Detección de pulsaciones por minuto en tiempo real a partir de un sistema de inteligencia artificial para el género musical salsa(Pontificia Universidad Javeriana Cali, 2022) Murcia Gómez, Danny Julian; Sarria Montemiranda, Gerardo MauricioLa música es la combinación de un sin fin de posibilidades de ritmos que escuchamos todo el tiempo, donde constantemente nos ofrecen diferentes tipos de herramientas para experimentar, innovar y disfrutar de uno de los placeres más grandes que podemos encontrar. Por eso urge investigar modelos clave para la interpretación de los diferentes modelos de música que existen y sus diferentes. La Salsa es un género muy popular en América Central y del Sur, conocida por su variedad de instrumentos de percusión, por su piano y su clave de son [1]. Su ritmo es uno de los factores que depende de la clave de son, la cual puede ser 2-3 o 3-2 [2]. Este género musical es uno de los más interesantes para estudiar, en cuanto a saber a qué ritmo se refiere, en particular la determinación del beat, es decir, la unidad básica de ritmo de una canción y uno de los menos analizados en el campo científico. Actualmente ya existen muchos patrones que detectan a partir de una canción el beat que maneja la canción, permitiendo controlar la canción. En el caso del género musical Salsa, no se han realizado muchos estudios en el análisis de obtener el beat en tiempo reproducción de la canción. Es requerido un Sistema de inteligencia Artificial que sea capaz de analizar una canción y retorne el beat en tiempo de reproducción de la canción.Item Diseño de una aplicación como ayuda para predecir el riesgo de padecer una isquemia cardiaca(Pontificia Universidad Javeriana Cali, 2021) Camayo Chaguendo, Alex; Aguilar Zambrano, Jaime Alberto; Asencio Santofimio, Helberg AntonioHoy en día, las enfermedades cardiacas son las principales causas de muerte alrededor del mundo. Por esta razón, en este artículo se realiza una aplicación Android que, no solamente pretende predecir el riesgo de padecer una enfermedad isquémica del corazón como prevención secundaria, sino que también, busca acompañar a los pacientes en su tratamiento de la enfermad. Para lograr lo anterior, se realizó un proceso de diseño con el uso de la Teoría de Solución de Problemas Inventivos TRIZ. De esa manera, se realizó una búsqueda en la literatura científica para caracterizar los sistemas actuales que pretenden atacar la problemática de las enfermedades cardiovasculares. Así, se encontró que Machine Learning es una herramienta de gran uso y con buenos resultados para la predicción de una enfermedad cardiovascular. Sin embargo, se encontró una ausencia de involucrar estos algoritmos en productos de apoyo donde el paciente sea el centro de atención y no sólo la enfermedad. Así, la aplicación de este proyecto lleva el modelo de los estudios a un prototipo inicial que puede ser usado por las personas como un indicador en el tratamiento del padecimiento. Como resultado, se obtuvo una aplicación en la plataforma Android que utiliza Tensorflow para el desarrollo del modelo Machine Learning, y Firebase junto con Android Studio para crear las interfaces.Item Estimación de los precios de vehı́culos en las ciudades de Bogotá, Cali, Medellı́n y Barranquilla utilizando Web Scraping, modelos de regresión y machine learning(Pontificia Universidad Javeriana Cali, 2021) Moncayo Ruíz, Víctor Hugo; Arango Londoño, DavidConocer el precio justo de un vehículo, se ha convertido en una necesidad a la hora de comprar o vender. Sin embargo, los métodos hasta ahora usados y ofrecidos dependen en gran medida de precios estándar fijados de manera única por unas pocas entidades y de vendedores con experiencia. Por esta razón se hace necesario contar con una herramienta que estime de manera aproximada el precio real de los vehículos de acuerdo a un número particular de características, las cuales tienen su aporte en el precio final. En este proyecto, se pretende aprovechar la información encontrada en medios digitales y desarrollar un sistema que facilite al usuario estimar el precio a la hora de adquirir o vender un vehículo.Item Implementación de machine learning para la estimación del riesgo de fuga de los clientes en empresa de la industria del retail de moda en Colombia(Pontificia Universidad Javariana Cali, 2024) Elorza Velásquez, Sebastián; Mosquera Valencia , Diego FernandoEl trabajo de grado presentado, titulado "Implementación de Machine Learning para la Estimación del Riesgo de Fuga de los Clientes en una Marca de una Empresa de la Industria del Retail de Moda en Colombia", tiene como objetivo principal desarrollar una herramienta predictiva que permita identificar los clientes con mayor probabilidad de abandonar la marca. Esto se busca lograr mediante la aplicación de técnicas de machine learning que analicen el comportamiento de los clientes, sus hábitos de compra y las interacciones con la empresa. El problema central identificado es que la empresa del caso de estudio, Chevignon, sufre una pérdida significativa de clientes cada año, lo que afecta tanto los ingresos como la percepción de marca. En respuesta a esta problemática, se propuso utilizar datos históricos y técnicas de aprendizaje automático para predecir el riesgo de abandono y así mejorar las estrategias de retención.El modelo de predicción desarrollado emplea varios algoritmos, entre ellos XGBoost, Random Forest, Support Vector Machines (SVM) y redes neuronales artificiales (ANN). Los resultados muestran que el modelo XGBoost obtuvo el mejor desempeño con una precisión del 86.18% y una sensibilidad del 88.35%, lo que lo convierte en la herramienta más adecuada para predecir la fuga de clientes. La capacidad de predecir el abandono permitió a la empresa implementar acciones proactivas, como ofertas personalizadas y programas de fidelización, lo que ayudará a reducir la pérdida de clientes. El trabajo también enfatiza la importancia de la limpieza y la preparación de los datos, destacando la necesidad de eliminar variables altamente correlacionadas que podrían afectar la precisión del modelo. A lo largo del proceso, se evaluó la importancia de las variables en el modelo, identificándose que factores como la permanencia del cliente y el tiempo en la marca son determinantes en la predicción del abandono. En cuanto a trabajos futuros, se sugiere continuar optimizando los modelos mediante la incorporación de nuevas variables, el ajuste de hiperparámetros y la experimentación con otros algoritmos, como redes neuronales profundas o técnicas de ensamblado de modelos. También se propone investigar la posibilidad de implementar el modelo en tiempo real y personalizar las estrategias de retención en función del perfil y comportamiento de los clientes. En conclusión, este trabajo ofrece una herramienta valiosa para la marca, que, al predecir el riesgo de abandono, permitirá a la empresa tomar decisiones más informadas y estratégicas para mejorar la retención de clientes, reduciendo costos asociados y aumentando la competitividad en un mercado en constante cambio.Item Implementación de un modelo de riesgo de crédito para el otorgamiento y la renovación ágil de microcréditos para mipymes aplicando técnicas de machine learning(Pontificia Universidad Javeriana Cali, 2023) Díaz Arboleda, Julian Ernesto; González Rivera, Jorge; Rodríguez Vivas, Miguel Eduardo; Girón Cruz, Luis EduardoEl riesgo de crédito para las micro, pequeñas y medianas empresas (MiPymes) en Colombia representa un desafío significativo para las entidades financieras y las propias empresas, ya que un mal manejo de la concesión de créditos puede generar incumplimientos y pérdidas económicas considerables. En su mayoría, las instituciones financiadoras recurren a modelos de evaluación de riesgo basados en métodos tradicionales basados en la consulta en centrales de riesgo, en donde en gran proporción las MiPymes pueden no estar registradas o peor aún, estar mal calificadas por incumplimientos pasados o falta de historial crediticio, generándose así una autoexclusión de las MiPymes en el sistema financiero. La Fundación Santo Domingo (FSD) y su Dirección de Financiamiento y Desarrollo Empresarial, ofrecen servicios financieros y no financieros para apoyar el desarrollo empresarial y la creación de empleo en Colombia. Su objetivo principal es fomentar la inclusión financiera y el acceso al crédito para MiPymes en el país. Como alternativa a los modelos tradicionales de valoración del riesgo de crédito hoy en día son cada vez más utilizados aquellos que incorporan el procesamiento de los datos con técnicas de Machine Learning (ML), bajo este contexto, en el presente proyecto se presenta la implementación de un modelo de riesgo de crédito basado en técnicas de ML para la FSD, que le permita la concesión y renovación de microcréditos a MiPymes del departamento de Atlántico y Bolivar. Para lograr este objetivo, el proyecto incorpora la revisión del estado del arte relacionado con el problema, la caracterización y análisis de los datos históricos de préstamos, la limpieza y preparación de los datos, la selección de características relevantes, la reducción de la dimensionalidad y la implementación del algoritmo de ML para crear el modelo predictivo. Se espera que la implementación de este modelo permita a la FDS tomar decisiones de préstamo más precisas y efectivas, lo que a su vez puede aumentar la tasa de aprobación de préstamos y reducirá la tasa de incumplimiento de pagos.Item Integración de inteligencia artificial y teoría de portafolio en la evaluación y optimización de pronósticos para ETFS(Pontificia Universidad Javeriana Cali, 2024) Murcia Piedrahita, Juan David; Joaqui Barandica, OrlandoAnte un mercado financiero global en constante evolución, los Exchange Traded Funds (ETFs) han surgido como herramientas versátiles de inversión, accesibles para diversificar portafolios a bajo costo y con alta flexibilidad. A continuación, esta investigación aborda la integración de la inteligencia artificial, especialmente el aprendizaje automático, para perfeccionar la evaluación y predicción de precios en 5 ETFs: SPDR S&P 500 ETF Trust (SPY), iShares Russell 2000 ETF (IWM), Invesco QQQ Trust (QQQ), Grayscale Bitcoin Trust (GBTC), Vanguard Total Stock Market ETF (VTI). A causa de la volatilidad y diversidad del mercado, existe una necesidad crítica de desarrollar estrategias de inversión que no solo optimicen los retornos, sino que también minimicen los riesgos asociados. Este estudio utiliza técnicas de aprendizaje automático, como el método KNN para la clasificación de tendencias de precios, combinadas con la teoría de portafolio de Markowitz, para formular enfoques de inversión que maximicen la rentabilidad ajustada al riesgo. Así pues, el análisis descriptivo inicial reveló patrones que influyen en el rendimiento de los ETFs, estableciendo una base sólida para la predicción precisa de movimientos de precios y la construcción de portafolios optimizados. Los resultados muestran que la integración de técnicas avanzadas de aprendizaje automático con principios fundamentales de inversión mejora notablemente la gestión de portafolios de ETFs, evidenciando una capacidad de predicción superior al 50% para tendencias de precios. Siendo así, esta capacidad para equilibrar el rendimiento y el riesgo es crucial en el entorno financiero actual, caracterizado por su rápida evolución y complejidad. Además, los hallazgos sugieren que adoptar enfoques tecnológicos avanzados puede superar las limitaciones de las estrategias de inversión tradicionales, ofreciendo a los inversores herramientas más robustas para navegar mercados financieros volátiles. En conclusión, este estudio subraya la importancia de combinar la inteligencia artificial con la teoría de portafolios para optimizar la gestión de inversiones en ETFs, proponiendo futuras investigaciones que extiendan estos métodos a otros tipos de activos financieros, lo que podría ampliar aún más las estrategias de inversión efectivas y seguras.Item Machine learning with data augmentation to predict glucantime effectiveness against cutaneous leishmaniasis(Pontificia Universidad Javeriana Cali, 2021) Hoyos Urcué, Juan José; Álvarez Vargas, Gloria Inés; Linares Ospina, Diego LuisEnfrentar problemas de análisis de datos en pequeños conjuntos de datos es un problema común en la investigación médica; asimismo, es un problema que dificulta mucho la aplicación y el éxito de los algoritmos clásicos de aprendizaje automático. Muchas técnicas han abordado el problema de un pequeño conjunto de datos, principalmente para los campos de visión artificial y procesamiento de imágenes. Sin embargo, para los datos tabulares, se ha difundido muy poco. En este trabajo de grado se propone el uso de técnicas de aumento de datos tabulares para introducir instancias sintéticas bastante similares a las reales, particularmente en el contexto de un problema médico/social de predecir la efectividad de Glucantime como tratamiento contra la Leishmaniasis cutánea. Los experimentos muestran que el uso de estos algoritmos de aumento de datos mejora las características del conjunto de datos inicial y el rendimiento de los modelos de aprendizaje automático. El conjunto de datos utilizado en esta investigación tiene diez atributos y 18 registros.Item Modelado y optimización de SuDS en la Pontificia Universidad Javeriana Sede Bogotá mediante Machine Learning para la adaptación al cambio climático(Pontificia Universidad Javeriana Cali, 2025) Rojas Céspedes, Dónoban Steven; Galarza Molina, Sandra Lorena; Torres Abello, Andrés EduardoEste Proyecto Aplicado se enfocó en el modelado y la optimización de los Sistemas Urbanos de Drenaje Sostenible (SuDS) en la Pontificia Universidad Javeriana de Bogotá mediante técnicas de aprendizaje automático como estrategia de adaptación al cambio climático, un tema de crucial importancia ante los crecientes desafíos que enfrentan sistemas como el Sistema de Humedal Artificial/Tanque de Reservorio (SHATR) para gestionar volúmenes de agua durante eventos de lluvia intensa, en un contexto donde escasean los análisis predictivos que consideren escenarios climáticos extremos. La problemática central abordada fue la necesidad de fortalecer la capacidad de gestión y la resiliencia del SuDS frente a los impactos del cambio climático, para lo cual se estableció como objetivo principal desarrollar e implementar modelos de aprendizaje automático utilizando datos de precipitación y escorrentía, evaluando la efectividad del sistema y mejorando sus estrategias de gestión ante diversos escenarios climáticos. Los resultados más destacados incluyen el desarrollo de un modelo de Regresión por Vectores de Soporte (SVR) optimizado mediante búsqueda bayesiana, que presentó un desempeño predictivo sobresaliente para modelar el nivel de entrada del sistema con un coeficiente de determinación (R²) de 0.9024; además, la aplicación de escenarios de cambio climático construidos a partir de proyecciones del IDEAM reveló variaciones significativas en la frecuencia de eventos críticos y en los niveles promedio del sistema, evidenciando la urgente necesidad de implementar estrategias de adaptación flexibles. Este trabajo demostró la viabilidad de aplicar metodologías de aprendizaje automático, particularmente SVR, para modelar el comportamiento hidrológico del nivel de entrada de los SuDS bajo condiciones actuales y futuras, proporcionando insumos valiosos para el diseño de medidas preventivas y adaptativas. Entre las aplicaciones potenciales de esta investigación se contempla el uso del modelo desarrollado como herramienta para sistemas de alerta temprana y para la gestión operativa de otros sistemas de drenaje urbano vulnerables a los efectos del cambio climático, destacando el potencial del aprendizaje automático como instrumento fundamental para el análisis predictivo y la gestión optimizada de los SuDS frente a las limitaciones de los sistemas de drenaje existentes ante eventos climáticos extremos.Item Modelo de aprendizaje automático para la selección de estabilizantes utilizados en la geotecnia de suelos viales(Pontificia Universidad Javariana Cali, 2024) Pérez Niño, Álvaro; Gil González, JuliánLa ingeniería geotécnica enfrentó el reto de comprender la complejidad de los suelos en la construcción de infraestructuras, donde la selección adecuada de estabilizantes era crucial. Esta problemática surgió de la necesidad de mejorar las propiedades geotécnicas y minimizar el impacto ambiental mediante decisiones más eficientes en tiempo real. El proyecto se enfocó en desarrollar un modelo de aprendizaje automático para seleccionar estabilizantes específicos en suelos viales, buscando superar las limitaciones de los métodos tradicionales, caracterizados por ensayos prolongados y de costoso elevados. La investigación se centró en recolectar y analizar datos sobre las propiedades de suelos y estabilizantes, aplicando técnicas de aprendizaje automático supervisado para predecir su interacción. El modelo validado permitió asistir en la selección de estabilizantes adecuados según las características geotécnicas de los suelos. Los principales resultados incluyeron un repositorio detallado de datos, un modelo predictivo para la selección de estabilizantes, y una herramienta informática interactiva que facilitaba su aplicación. Las aplicaciones de este proyecto de investigación, se enfocaron en optimizar el uso de recursos en la construcción y mantenimiento de infraestructuras viales, mejorando su calidad, durabilidad y reduciendo el impacto ambiental al utilizar materiales geotécnicos más eficientes desde la toma de decisiones en tiempo real basada en datos, contribuyendo a una mejor gestión y planificación de los proyectos de infraestructura vial. En resumen, esta investigación ofreció una solución innovadora y precisa para la selección de estabilizantes en suelos viales, abordando de manera efectiva la complejidad geotécnica y promoviendo prácticas sostenibles en la ingeniería de infraestructuras.Item Modelo predictivo para la identificación de la enfermedad producida por la plaga Heilipus Lauri en el cultivo de aguacate Hass en Colombia, por medio del procesamiento y clasificación de imágenes con aplicación de técnicas de Machine Learning(Pontificia Universidad Javeriana Cali, 2024) Carvajal Jaramillo, Karen Andrea; Castro Collazos, Mauricio; Riveros Pulgarín, Ramón Siddartha; Arango Londoño, DavidLas enfermedades causadas por el insecto-plaga Heilipus Lauri son una de las principales causantes de los daños en los cultivos de aguacate Hass, adicionalmente reducen la calidad de los cultivos al generar problemas fitosanitarios que dificultan alcanzar el potencial exportador de este producto. Por lo cual, el presente proyecto plantea entrenar y evaluar un algoritmo de clasificación de imágenes con el uso de técnicas de aprendizaje automático, con el uso de un banco de imágenes recolectadas por Agrosavia, para la construcción de una herramienta que pueda ser usada por los pequeños y medianos productores de este fruto, que sirva para el control y monitoreo del daño causado por estas plagas. Además, se espera que este proyecto sirva como marco de referencia para futuras investigaciones en el sector agropecuario y académico en el ámbito de procesamiento y clasificación de imágenes.Item Predicción de capacidad y eficiencia en planta de producción de especialidades químicas mediante el análisis y modelado avanzado de datos(Pontificia Universidad Javeriana Cali, 2025) Duarte Quintero, Daniel Felipe; García Arboleda, Isabel CristinaEste proyecto se centró en el diseño e implementación de un sistema predictivo de capacidad y eficiencia en una planta de producción de especialidades químicas, mediante el uso de ciencia de datos y aprendizaje automático. La problemática abordada fue la brecha operativa del 20% entre la capacidad teórica de los trenes de producción (agrupación de equipos con tecnologías similares) y su capacidad real, generando subutilización de recursos y reducción en la eficiencia global. La solución desarrollada comprendió la captura automatizada de datos en planta mediante formularios digitales, la integración de múltiples fuentes (plan de producción, ERP, históricos de parada) y la construcción de una base consolidada para modelado. Se entrenaron cuatro modelos por tren (Regresión Lineal Múltiple, Random Forest, XGBoost y Prophet), evaluados mediante métricas de error como RMSE, MAE, MAPE y R², y validados con técnicas de validación cruzada. Además, se generaron predicciones a seis meses por tren y se compararon con la capacidad teórica establecida por la alta gerencia. Como resultado, se obtuvo una arquitectura predictiva robusta, complementada por un tablero interactivo (Power BI) para la visualización dinámica del desempeño por tren, incluyendo predicciones, brechas de capacidad y alertas operativas. Esta herramienta permite soportar la toma de decisiones estratégicas en la planificación de la producción. Si bien el enfoque se diseñó para una planta específica, su metodología es escalable a otras unidades productivas con adaptaciones mínimas. El proyecto representa una aplicación integral de la ciencia de datos al entorno industrial específicamente a la producción de químicos, articulando captura de datos, procesamiento, modelado, validación y visualización de resultados en una solución operativa lista para implementación.Item Predicción del gasto de bolsillo en salud de los hogares en Colombia usando modelos de aprendizaje automático(Pontificia Universidad Javariana Cali, 2024) Parada Portilla, Juan Sebastián; Ortega Lenis, DeliaEste trabajo desarrolla modelos de aprendizaje automático para predecir el gasto de bolsillo en salud de los hogares colombianos. Utilizando datos de la Encuesta de Calidad de Vida (ECV), se identificaron variables clave como la presencia de enfermedades crónicas en el hogar, el ingreso del hogar, el tamaño del hogar, el estado de salud y la afiliación al sistema de seguridad social. Inicialmente, se exploraron modelos de regresión, pero debido a la alta proporción de valores nulos (85\% de los hogares no reportan gasto en salud), su desempeño fue limitado. Para abordar este problema, se transformó la variable dependiente en una binaria y se aplicaron modelos de clasificación, incluyendo Random Forest, Gradient Boosting y regresión logística, optimizados con la técnica SMOTE para balancear las clases. Los resultados muestran que los modelos de clasificación superan a los de regresión, con Random Forest y Gradient Boosting logrando los mejores desempeños en términos de ROC AUC. Este estudio proporciona herramientas útiles para el diseño de políticas públicas basadas en evidencia, permitiendo identificar hogares con mayor riesgo de incurrir en altos gastos en salud y facilitando intervenciones para reducir el impacto financiero en las familias colombianas.Item Predicción del tratamiento para la leishmaniasis cutánea mediante datos génicos e inferencia gramatical(Pontificia Universidad Javeriana Cali, 2021) Peña Atencio, Josue; Álvarez Vargas, Gloria Inés; Linares Ospina, Diego LuisLa leishmaniasis es una enfermedad parasitaria usualmente transmitida por moscas de arena infectadas que suelen vivir en ambientes tropicales. La forma más común de leishmaniasis en Colombia es la leishmaniasis cutánea, la cual provoca úlceras en la piel. Para esta forma, el tratamiento actual mediante el medicamento Glucantime tiene un porcentaje de fracaso que varía entre el 19% y el 81%. Colombia y otros países afectados tienen poco interés en esta enfermedad que está profundamente relacionada con la pobreza, y no cuentan con el conocimiento médico para garantizar un tratamiento completamente seguro. La dificultad para tratar la enfermedad radica en la compleja interacción entre el parásito y el sistema inmunológico, el cual está relacionado con el estado de expresión génica de cada paciente En el presente trabajo, se hace uso de 7 conjuntos de datos provistos por el CIDEIM de Cali, los cuales recolectan la información de expresión génica de tres tipos de glóbulos blancos provenientes de 14 pacientes de leishmaniasis anónimos antes, durante y después del tratamiento para la enfermedad. Se utilizan dos algoritmos de inferencia gramatical llamados OIL y RPNI [6] para predecir el posible resultado del tratamiento y así ayudar a prevenir la falla y complicaciones del mismo o para establecer un tratamiento alternativo más adecuado. Estas técnicas han sido aplicadas con éxito en los campos como la biología computacional y el procesamiento del lenguaje natural [7]. Se realizan 54 experimentos para OIL y 54 experimentos para RPNI; en cada uno los experimentos cada algoritmo se entrena y evalúa mediante una validación cruzada 4 iteraciones. Se usan las métricas Accuracy, Precision, Recall y F1-Score para la evaluación. Se llegó a resultados satisfactorios en el trabajo, logrando en múltiples experimentos una tasa muy competitiva del 90% de Accuracy para RPNI y 68.8% de Accuracy para OIL.