Browsing by Author "Linares Ospina, Diego Luis"
Now showing 1 - 18 of 18
Results Per Page
Sort Options
Item Análisis de sentimientos integrado en un modelo de predicción del precio de las acciones, utilizando técnicas de aprendizaje automático(Pontificia Universidad Javeriana Cali, 2023) Londoño Cárdenas, Jhon Sebastián; Ortiz Morales, Luis Alberto; Linares Ospina, Diego Luis; Álvarez Vargas, Gloria InésEl mercado de acciones es uno que cuenta con cierta antigüedad, es por esto que se han desarrollado y probado una gran variedad técnicas para intentar predecir el comportamiento del valor del precio de las acciones. Sin embargo, para estas predicciones se tienen en cuenta, en mayor medida, variables como el histórico del precio, dejando de lado otro tipo de información como el análisis de sentimientos. En este proyecto se quiso contribuir a la investigación sobre el aporte que puede hacer este tipo de variable menos usada en la predicción del precio de las acciones, por este motivo, se llevó a cabo una integración entre dos técnicas con diferente grado de exploración. Para la parte del análisis de sentimientos se usó un dataset de tweets de la empresa Apple al cual se le aplicó técnicas de Procesamiento de Lenguaje Natural para el preprocesa miento, 2 algoritmos de aprendizaje semi-supervisado para ayudar a etiquetar los sentimientos de todos los tweets y 3 modelos de aprendizaje automático para que pudieran etiquetar tweets nuevos, siendo este la Máquina de Soporte Vectorial. Para la parte del histórico del precio se usó un dataset de diferentes valores de las acciones de la empresa Apple, gracias al cual se en traron 3 modelos de aprendizaje automático de los cuales la LSTM tuvo los mejores resultados. Posteriormente, se integraron los sentimientos obtenidos al histórico del precio, obteniendo que el mejor modelo era el Random Forest, sin embargo, no conseguía superar al mejor modelo que únicamente usaba el histórico del precio. Con dicho modelo de Random Forest se realizaron pruebas en un mercado simulado, determinando que el uso tanto del histórico del precio como del análisis de sentimientos es posible y tiene resultados aceptables, no obstante, la estrategia de compra y venta debe examinarse con mayor rigurosidad para darle un uso a estos modelos en el mundo real.Item Aplicar el agente inteligente basado en aprendizaje por refuerzo RELOAD para realizar pruebas de carga autónomas(Pontificia Universidad Javeriana Cali, 2024) López Fuentes, Juan David; Linares Ospina, Diego LuisEl presente proyecto tiene como objetivo aplicar el prototipo de agente inteligente basado en aprendizaje por refuerzo, llamado RELOAD, que permita realizar pruebas de carga autónomas, para lo que se realizará una investigación con metodología cuantitativa de tipo experimental, donde se hará uso de un agente de prueba de carga impulsado por el aprendizaje por refuerzo propuesto que identifica los efectos de diferentes transacciones involucradas en la carga de trabajo y aprende cómo ajustar las transacciones para cumplir con el objetivo de la prueba. De esta manera, los resultados esperados implican utilizar un agente de pruebas de carga autónomo impulsado por el aprendizaje por refuerzo.Item Apoyo en la compra y venta de acciones de la bolsa de valores estadounidense utilizando técnicas de aprendizaje por refuerzo(Pontificia Universidad Javeriana Cali, 2023) Narváez Paz, Elkin Jadier; Linares Ospina, Diego Luis; Álvarez Vargas, Gloria InésEste proyecto de investigación se adentró en el desarrollo de un agente de trading basado en aprendizaje por refuerzo, con el objetivo de evaluar su desempeño en comparación con la estrategia buy-and-hold en el dinámico entorno de los mercados financieros. El problema central de esta investigación era evaluar si un agente entrenado mediante técnicas de aprendizaje por refuerzo podía navegar eficazmente por las complejidades de la compra y venta de activos, marcadas por la volatilidad del mercado, tendencias cambiantes e incertidumbres financieras. Nuestro enfoque implicó una progresión deliberada e iterativa de experimentos, comenzando con fases preliminares diseñadas para extraer información cualitativa e identificar tendencias. Estos primeros experimentos estaban limitados en términos de recursos computacionales y duración del entrenamiento, pero fueron fundamentales para dirigirnos hacia hiperparámetros óptimos y configuraciones de entrenamiento para el último experimento. Este último experimento, caracterizado por un período de entrenamiento extenso, se destaca como el punto central de nuestros hallazgos, exhibiendo la culminación de nuestros esfuerzos. Dentro de este entrenamiento extendido, el agente demostró una notable capacidad para adaptarse a las dinámicas cambiantes del mercado, lo que se tradujo en un desempeño que compite favorablemente con la estrategia buy-and-hold. Estos resultados destacan la adaptabilidad y las capacidades de aprendizaje del agente en el contexto de compra y venta de activos, revelando su potencial para su aplicación práctica en los mercados financieros reales. En conclusión, esta investigación arroja luz sobre la promesa del aprendizaje por refuerzo en el trading, enfatizando la importancia de un enfoque sistemático para la experimentación y dejando el camino para futuros refinamientos destinados a mejorar la robustez del modelo para aplicaciones financieras del mundo real.Item Clasificación de pacientes con Leishmaniasis basado en mutaciones genéticas por polimorfismo de nucleótido único (SNP) usando técnicas de Machine Learning(Pontificia Universidad Javeriana de Cali, 2023) Gómez Vasco, Carlos Andrés; Álvarez Vargas, Gloria Inés; Linares Ospina, Diego LuisLa leishmaniasis es una enfermedad tropical transmitida mediante la picadura de insectos que son los vectores de la enfermedad. Se considera una endemia en más de 88 países de diferentes geografías. Las tasas reales de incidencia son sustancialmente altas y con una alta prevalencia en países de América Latina. Aunque existen diferentes tratamientos terapéuticos, son muy complicados para los pacientes y suelen ser bastante tóxicos para otros órganos del cuerpo, y, en general, tienen altos índices porcentuales de fallo, es decir, cumplido el tratamiento los pacientes no se recuperan. Actualmente no existe una herramienta clínica que le permita a un médico tratante determinar la probabilidad a priori de que un tratamiento sea efectivo. Por el contrario, de manera indiscriminada se aplica a los pacientes las terapias bajo la premisa del ensayo y error. En este proyecto aplicado, se realiza un estudio basado en mutaciones genéticas producidas por polimorfismo de nucleótido único (SNP) a un conjunto de setenta y dos (72) pacientes tratados con las técnicas terapéuticas existentes. A estos pacientes se les realizó una secuenciación genética consiguiendo 618,872 SNPs para cada uno y la información clínica del grupo étnico, así como la respuesta al tratamiento después de aplicado, etiquetado como cura o falla. Esta información es suficiente para generar un dataset que fue analizado mediante GWAS (Estudio de asociación de genoma completo) consiguiendo tres datasets denominados COMPLETO, AFRODESCENDIENTES y NO-AFRODESCENDIENTES con 41, 14 y 36 SNPs correspondientemente. Mediante técnicas de reducción de dimensionalidad, como el análisis de componentes principales (PCA), eliminación recursiva de características y regresión LASSO, se reduce el número de variables a aquellas mutaciones genéticas más relevantes para la respuesta inmune al tratamiento consiguiendo 69 subconjuntos de características. Mediante técnicas de aprendizaje automático se construyen 483 clasificadores basados en algoritmos de Regresión Lineal (RL), Stochastic Gradient Descent (SGD), Support Vector Machine (SVM), Decision Tree (DT), Random Forest (RF), Boosting (BT) y Gradient Boosting (GB) de los 69 subconjuntos, para clasificar con precisión las mutaciones genéticas relacionadas con la respuesta inmune al tratamiento terapéutico contra la leishmaniasis. Se utilizaron métricas de evaluación, como accuracy, precision, recall y F1 score para medir el rendimiento de los clasificadores. Estas métricas proporcionaron una visión detallada de la capacidad de los modelos para identificar correctamente las mutaciones relevantes. Después de la evaluación inicial de los 683 experimentos, se realizó la optimización de los hiperparámetros de los modelos mediante una búsqueda por cuadrícula explorando diferentes combinaciones y configuraciones, lo que permitió refinar los modelos y nuevamente estimar su desempeño permitiendo evaluar y comparar los resultados antes y después de la optimización, confirmando la mejora significativa en la capacidad de los clasificadores para identificar con precisión las mutaciones genéticas relacionadas con la respuesta inmune al tratamiento terapéutico contra la leishmaniasis. Al final, se consiguió una selección de 22 SNPs ubicados en genes con funciones biológicas altamente relacionadas con movimiento, transcripción, estructura y transporte celular, así como el transporte de metales, respuesta inmune y cicatrización. Evidenciando que las técnicas aplicadas son eficientes en la identificación de biomarcadores asociados con la respuesta al tratamiento contra la leishmaniasis.Item Desarrollo de un modelo de aprendizaje automático no supervisado para seleccionar noticias relevantes(Pontificia Universidad Javeriana Cali, 2024) Hernández Saavedra, Juan Camilo; Linares Ospina, Diego Luis; Álvarez Vargas, Gloria InésLa forma en que las personas se informan ha evolucionado constantemente con la proliferación de la tecnología. La mayoría de todos los medios de comunicación han abandonado parcialmente sus formatos físicos para adaptarse al mundo digital, más precisamente al entorno web. Este cambio ha llevado a un gran aumento en el número de lectores, generando beneficios tanto a los noticieros como a los lectores. Uno de los tantos beneficios que podemos encontrar es la facilidad y la rapidez con la que la información es llevada a los lectores, permitiéndoles acceder a las noticias en el lugar y momento que quieran con solo hacer un par de clics. Aunque inicialmente los beneficios eran evidentes, con el tiempo surgieron desafíos que han afectado a los medios de comunicación que publican noticias en formato web. Entre los problemas más comunes podemos encontrar la combinación de noticias irrelevantes con noticias relevantes para el lector, lo cual puede influir en el pensamiento e interés que ellos reciben durante sucesos importantes, teniendo en cuenta que las noticias, al tener una gran influencia en la percepción y toma de decisiones en la población, son una parte fundamental de la sociedad. En este trabajo se presentó una solución haciendo uso de modelos de aprendizaje automático no supervisado, representación de textos haciendo uso de técnicas del procesamiento del lenguaje natural, junto con una estrategia que consiste en obtener noticias de varios portales web de noticias. Si una noticia aparece dentro de varios portales, es considerada relevante. Esto se logra gracias a los modelos de representación de textos que permiten extraer el sentido y contexto de un titular, para posteriormente ser agrupados haciendo uso de modelos de clustering. Por último, estos modelos de clustering son ajustados haciendo uso de búsqueda de hiperparámetros, permitiendo obtener su mayor precisión posible. Finalmente, se logró construir dos modelos de clustering que, haciendo uso de modelos, representación de texto, técnicas de procesamiento del lenguaje natural y búsqueda de hiperparámetros para ajustar al máximo su precisión, son capaces de discernir qué noticias son relevantes de un grupo de noticias. Para demostrar el funcionamiento, se diseñó un pequeño prototipo de portal web de noticias, que contiene estos modelos de clustering en funcionamiento.Item Develop of prototype system for people recognition based on ear biometrics(Pontificia Universidad Javeriana Cali, 2023) Córdoba Bravo, Juan Camilo; Torres Ordoñez, José Iván; Linares Ospina, Diego LuisItem Generación automática de resúmenes de documentos financieros usando técnicas basadas en grafos(Pontificia Universidad Javeriana Cali, 2024) Hernández Giraldo, Andrés Felipe; Rocha Fernández, Cristian David; Montes Estrada, Juan Carlos; Álvarez Vargas, Gloria Inés; Linares Ospina, Diego LuisLa generación automática de resúmenes es un área de creciente interés que busca facilitar la comprensión eficiente de grandes volúmenes de información textual. Este proyecto aborda el problema combinando técnicas extractivas y abstractivas mediante un enfoque mixto y el uso de algoritmos de grafos. El sistema automatizado desarrollado incluye la preparación y limpieza de textos financieros, vectorización con TF-IDF y modelos de embeddings como Cohere y Jina AI, cálculo de similitud coseno, creación de grafos, y selección de oraciones relevantes mediante el algoritmo MMR. El código fuente del proyecto, desarrollado en Python, está disponible en un repositorio con instrucciones de instalación y ejecución.Item Machine learning with data augmentation to predict glucantime effectiveness against cutaneous leishmaniasis(Pontificia Universidad Javeriana Cali, 2021) Hoyos Urcué, Juan José; Álvarez Vargas, Gloria Inés; Linares Ospina, Diego LuisEnfrentar problemas de análisis de datos en pequeños conjuntos de datos es un problema común en la investigación médica; asimismo, es un problema que dificulta mucho la aplicación y el éxito de los algoritmos clásicos de aprendizaje automático. Muchas técnicas han abordado el problema de un pequeño conjunto de datos, principalmente para los campos de visión artificial y procesamiento de imágenes. Sin embargo, para los datos tabulares, se ha difundido muy poco. En este trabajo de grado se propone el uso de técnicas de aumento de datos tabulares para introducir instancias sintéticas bastante similares a las reales, particularmente en el contexto de un problema médico/social de predecir la efectividad de Glucantime como tratamiento contra la Leishmaniasis cutánea. Los experimentos muestran que el uso de estos algoritmos de aumento de datos mejora las características del conjunto de datos inicial y el rendimiento de los modelos de aprendizaje automático. El conjunto de datos utilizado en esta investigación tiene diez atributos y 18 registros.Item Modelo de red neuronal convolucional para la traducción de gestos en lenguaje de señas colombiano a texto enfocado en el sector hotelero colombiano(Pontificia Universidad Javeriana Cali, 2023) Naranjo Astaiza, Nicolle Dayana; Suárez Peña, María José; Linares Ospina, Diego Luis ; Álvarez Vargas, Gloria InésEl objetivo principal de este proyecto es apoyar a las personas con discapacidad sensorial auditiva, permitiéndoles llevar a cabo acciones básicas en entornos donde el personal no está debidamente capacitado para ofrecer una atención totalmente adecuada, como suele ser en el sector hotelero colombiano. Por lo tanto, es cada vez más necesario el desarrollo de una herramienta computacional capaz de reconocer y traducir gestos manuales del lenguaje de señas colombiano (LSC) a texto. Esta herramienta no solo busca cubrir una necesidad real en la sociedad, sino que también permitirá una atención inclusiva y una experiencia positiva para todos los involucrados. Los resultados obtenidos de este proyecto demuestran de manera concluyente la funcionalidad de la herramienta desarrollada. La identificación de los datos es efectiva, y la traducción a texto es precisa. La herramienta es capaz de reconocer los gestos manuales del LSC de acuerdo con el corpus utilizado.Item Predicción del desenlace terapéutico de la leishmaniasis utilizando aprendizaje automático sobre SNPs(Pontificia Universidad Javeriana Cali, 2023) Bertín Sánchez, Alvaro José; Caicedo Rojas, Santiago; Álvarez Vargas, Gloria Inés; Linares Ospina, Diego LuisEl aprendizaje automático ha permitido avances significativos en el campo de la medicina, especialmente en la predicción del resultado del tratamiento de enfermedades. Este estudio de caso explora modelos y técnicas de aprendizaje automático para predecir el éxito o el fracaso del tratamiento de la leishmaniasis basándose en polimorfismos de nucleótido único (SNPs) en secuencias de ADN. Esto es crucial porque el tratamiento de la leishmaniasis puede tener efectos adversos para el cuerpo humano, lo que hace esencial predecir si los individuos con leishmaniasis deben someterse al tratamiento. Se emplearon técnicas de aprendizaje automático no supervisado para la selección de los SNPs más significativos. Posteriormente, se utilizaron técnicas de aprendizaje supervisado para la predicción y se evaluó el rendimiento del modelo. Este enfoque integral tiene como objetivo determinar la eficacia del tratamiento de la leishmaniasis y si los individuos deben o no someterse al régimen prescrito.Item Predicción del desenlace terapéutico de leishmaniasis con base en fotografías de lesiones e información del transcriptoma(Pontificia Universidad Javeriana Cali, 2024) Acevedo, Karen Andrea; Arrieta Sánchez, Mario; Gómez Vallejo, Catalina; Linares Ospina, Diego Luis ; Gómez, María AdelaidaEsta investigación adoptó un enfoque cuantitativo de carácter descriptivo experimental, en el cual se utilizó una metodología centrada en la recopilación y análisis de datos numéricos e imágenes para describir detalladamente las variables de interés. Este método se distingue por su énfasis en la medición objetiva de las variables mediante un diseño experimental a partir del conjunto de datos disponible. El proyecto se desarrolló utilizando fotografías de lesiones y datos de información transcriptómica de un grupo de pacientes que previamente habían sido tratados por el CIDEIM con el propósito de evaluar la eficacia del tratamiento para la leishmaniasis. Este enfoque incorporó herramientas de aprendizaje automático donde se requirió la construcción de bases de datos de alta calidad para llevar a cabo el procesamiento la aplicación de las técnicas y su evaluación. Después de la creación de los conjuntos de datos e imágenes, se aplicaron técnicas esenciales en la preparación de datos tanto para los transcriptomas como para las imágenes, con el objetivo de mejorar la calidad y simplificar el análisis. En el caso de los datos de transcriptomas, se comenzó aplicando técnicas de limpieza y reducción de dimensionalidad, como ANOVA, PCA y RFE, que permitieron segmentar y extraer los genes más significativos para cumplir con los objetivos establecidos. Posteriormente, se implementaron modelos de aprendizaje supervisado, tales como SVM, Árboles de Decisión, K vecinos y Bosques Aleatorios. Estos modelos fueron evaluados mediante un conjunto de entrenamiento aplicando validación cruzada, con el propósito de analizar tanto los modelos base como aquellos que resultaron de la estimación de los mejores hiperparámetros, buscando alcanzar un rendimiento óptimo. La evaluación del desempeño de estos modelos se llevó a cabo a través del conjunto de prueba, verificando los resultados frente a pruebas de laboratorio de referencia. Se analizaron diversas métricas, como sensibilidad y especificidad, con el objetivo de evaluar la coherencia entre los métodos, y se evidenció un rendimiento generalmente satisfactorio. No obstante, al emplear los genes seleccionados mediante el método de ANOVA, se destacó una consistencia notable tanto en los modelos base como en los estimados. En este escenario, se logró un promedio de exactitud del 0. 80 y un F1 score de aproximadamente 0.73 para los modelos base. Tras la estimación de los mejores hiperparámetros, se observó un incremento de alrededor del 0.05 en exactitud y un aumento de 0.07 en el F1 score. El conjunto de imágenes, por su parte, fue sometido a técnicas como las redes neuronales, para analizar las características particulares, como texturas, formas, bordes y coloración. Esto posibilitó la detección y clasificación automática de los individuos entre cura o falla (no cura). Para abordar esto, se creó un modelo utilizando un conjunto de entrenamiento aplicando validación cruzada, donde se planteó una red neuronal base a la cual se le realizó una estimación de hiperparámetros para obtener el mejor rendimiento. Posterior se utilizaron las arquitecturas VGG16 y VGG19 junto con la transferencia de aprendizaje de los hiperparámetros definidos de la red base. La evaluación del desempeño de estos modelos se llevó a cabo a través de conjuntos de prueba obteniendo con estas dos arquitecturas VGG16 y VGG19 los resultados óptimos. Un a exactitud promedio de 0. 92 y una función de pedida promedio de 0.17. A partir de los resultados obtenidos, fue posible reconocer y extraer características significativas tanto de los genes como de las imágenes, las cuales sirvieron como indicadores morfológicos de la presencia de leishmaniasis cutánea en el individuo. En última instancia, se realizó la interpretación de los resultados obtenidos para evaluar la viabilidad del proyecto, identificando limitaciones y desafíos, así como posibles cambios y mejoras para futuras investigaciones.Item Predicción del desenlace terapéutico para leishmaniasis cutánea combinando información metabolómica y SNPs(Pontificia Universidad Javeriana Cali, 2023) Mejía Patiño, Juan Pablo; Linares Ospina, Diego Luis ; Gómez, María AdelaidaLa Leishmaniasis cutánea es una enfermedad presente en múltiples regiones tropicales del mundo, afectando a diversos grupos poblaciones y territorios. América Latina es uno de estos territorios, con la presencia de 15 de sus variedades. Esta enfermedad parasitaria afecta a grupos poblacionales vulnerables que requieren de un tratamiento especializado. Sin embargo, este tratamiento no siempre es exitoso y sus efectos colaterales son, en algunos casos, severos. Teniendo en cuenta esto, es importante contar con herramientas que permitan determinar con un grado alto de confianza el desenlace terapéutico de estos pacientes. Con este objetivo, el presente proyecto busca brindar una predicción sobre el desenlace del tratamiento para la Leishmaniasis Cutánea con un alto grado de confianza, utilizando dos fuentes de datos. Una de información metabolómica y otra de mutaciones genéticas conocidas como “SINGLE NUCLEOTIDE POLYMORPHISMS (SNPs)”,junto con técnicas de aprendizaje automático clásicas. Con base en proyectos del grupo DESTINO como antecedentes, se realizaron 18 experimentos aplicando 3 técnicas de aprendizaje supervisado. De estos, 9 experimentos resultaron en 9 clasificadores base, 6 con cada uno de los conjuntos de datos ya mencionados, y adicionalmente 3 con un nuevo conjunto de datos, originado de la intersección de muestras entre las dos fuentes de datos. Posteriormente, se evalúa su desempeño con métricas como “Accuracy”, “Precision”, “Recall” y “F1 Score”. A partir de esto, se realiza un afinamiento de hiperparámetros de estos clasificadores, usando una técnica de grilla y de nuevo se analizan los resultados con las métricas antes mencionadas. También se experimenta con una técnica de ensamble en cascada, como segunda mecánica para realizar la predicción del tratamiento contra la leishmaniasis. Esto se realiza utilizando los 2 mejores clasificadores que resultan de la fase de afinamiento de modelos. Al finalizar, se obtuvo que un clasificador que mezcla como entradas 7 SNPs, por parte del conjunto de datos de mutaciones genéticas, y 3 metabolitos del conjunto de datos de información metabolómica, obtiene un desempeño superior a los clasificadores con conjuntos de datos separados. Así mismo, el método de ensamble resultó en clasificaciones con un alto nivel de confiabilidad. Esto evidencia, que, combinando fuentes de información diferente bajo dos mecánicas distintas, es posible obtener una herramienta clínica para predecir el desenlace del tratamiento contra la leishmaniasis cutánea.Item Predicción del precio de acciones de la bolsa estadounidense utilizando técnicas de aprendizaje automático basadas en datos de análisis técnico y fundamental(Pontificia Universidad Javeriana Cali, 2022) García Gallego, Jeffrey Steven; Gutiérrez Uribe, Jose David; Linares Ospina, Diego Luis; Álvarez Vargas, Gloria InésLa predicción de acciones de la bolsa de valores ha sido una actividad que se ha venido realizando de distintas maneras desde la aparición de los mercados de acciones. En la actualidad, con la presente tendencia de la aplicación del aprendizaje automático en distintos campos, se avanza en la investigación de modelos de aprendizaje automático, atributos a tener en cuenta y datos utilizados para realizar una predicción sobre el precio o la volatilidad de una acción en específico. En lo que respecta a los datos utilizados, actualmente, los principales son los datos basados en análisis técnico, análisis fundamental y análisis de sentimientos. Según la literatura, la mayor parte de los estudios e investigaciones en este campo se basan en datos de análisis técnico. Por lo tanto, en este proyecto se buscó explorar el comportamiento de distintas técnicas de aprendizaje automático basadas en datos de análisis técnico y análisis fundamental utilizando un conjunto de acciones de la bolsa de valores estadounidense, pertenecientes a uno de los índices más importantes el S&P 500. También se exploraron distintos métodos como Análisis de Componentes Principales (PCA por sus siglas en ingles), ventana deslizante y una selección de atributos a través de la literatura. En este estudio se pusieron a prueba estos modelos a través de métricas como la del Error Cuadrático Medio y el Error Absoluto Medio. Estos modelos se sometieron a una prueba que simula una situación real de inversión conocida como backtesting, en el cual se hace uso de la estrategia de comprar bajo y vender alto. Se encontró que la técnica que presentó menor error para análisis técnico fue SVR y para análisis fundamental fue MLP. Sin embargo, en backtesting RF fue la que mayores beneficios obtuvo tanto para análisis técnico como para análisis fundamental. Se plantea que posiblemente las métricas de error en la predicción del precio de una acción no resultan lo suficientemente expresivas como para determinar el desempeño de un modelo en una situación real.Item Predicción del tratamiento para la leishmaniasis cutánea mediante datos génicos e inferencia gramatical(Pontificia Universidad Javeriana Cali, 2021) Peña Atencio, Josue; Álvarez Vargas, Gloria Inés; Linares Ospina, Diego LuisLa leishmaniasis es una enfermedad parasitaria usualmente transmitida por moscas de arena infectadas que suelen vivir en ambientes tropicales. La forma más común de leishmaniasis en Colombia es la leishmaniasis cutánea, la cual provoca úlceras en la piel. Para esta forma, el tratamiento actual mediante el medicamento Glucantime tiene un porcentaje de fracaso que varía entre el 19% y el 81%. Colombia y otros países afectados tienen poco interés en esta enfermedad que está profundamente relacionada con la pobreza, y no cuentan con el conocimiento médico para garantizar un tratamiento completamente seguro. La dificultad para tratar la enfermedad radica en la compleja interacción entre el parásito y el sistema inmunológico, el cual está relacionado con el estado de expresión génica de cada paciente En el presente trabajo, se hace uso de 7 conjuntos de datos provistos por el CIDEIM de Cali, los cuales recolectan la información de expresión génica de tres tipos de glóbulos blancos provenientes de 14 pacientes de leishmaniasis anónimos antes, durante y después del tratamiento para la enfermedad. Se utilizan dos algoritmos de inferencia gramatical llamados OIL y RPNI [6] para predecir el posible resultado del tratamiento y así ayudar a prevenir la falla y complicaciones del mismo o para establecer un tratamiento alternativo más adecuado. Estas técnicas han sido aplicadas con éxito en los campos como la biología computacional y el procesamiento del lenguaje natural [7]. Se realizan 54 experimentos para OIL y 54 experimentos para RPNI; en cada uno los experimentos cada algoritmo se entrena y evalúa mediante una validación cruzada 4 iteraciones. Se usan las métricas Accuracy, Precision, Recall y F1-Score para la evaluación. Se llegó a resultados satisfactorios en el trabajo, logrando en múltiples experimentos una tasa muy competitiva del 90% de Accuracy para RPNI y 68.8% de Accuracy para OIL.Item Prototipo de herramienta para la mejora en los procesos de designación de PQRSD de la Alcaldía de Bucaramanga(Pontificia Universidad Javeriana Cali, 2023) Gómez Bueno, Wilfredo Ariel; Gómez Cárdenas, Edson Andrés; Linares Ospina, Diego Luis ; Álvarez Vargas, Gloria InésEste proyecto de grado surgió de la identificación de un problema clave en la gestión de las Peticiones, Quejas, Reclamos, Sugerencias y Denuncias (PQRSD) en la Alcaldía de Bucaramanga: cuando una PQRSD se asigna incorrectamente, se producen reprocesos que disminuyen el tiempo para su respuesta y generan incumplimientos. En el peor de los casos, una PQRSD puede incluso perderse administrativamente debido a la rotación del personal. Frente a este escenario, el objetivo principal de nuestro proyecto fue desarrollar una solución que pudiera impactar positivamente la asignación de las PQRSD en la Alcaldía. Para ello, utilizamos diversas técnicas de clasificación para analizar una base de datos de PQRSD compuesta por más de 590.592 registros con baja calidad de datos. El proyecto incluyó varias etapas, desde la extracción, exploración y limpieza de datos, hasta la creación y prueba de una arquitectura de clasificación mixta o híbrida basado en técnicas tradicionales. El modelo propuesto considera el desequilibrio presente en los registros entre las distintas dependencias de la Alcaldía y utiliza herramientas como GridSearchCV para seleccionar y optimizar los hiperparámetros de los clasificadores utilizados como Regresión Logística y ComplementNB en los cuatro (4) componentes de la arquitectura. Los resultados obtenidos, brinda un resultado de 65.1%, lo que sugiere que este enfoque puede ser eficaz para mejorar la gestión de las PQRSD en la Alcaldía de Bucaramanga, minimizando reprocesos, evitando incumplimientos y asegurando una gestión eficaz de las mismas, incluso en el contexto de la rotación del personal.Item Serious applications of technology in games and health(Pontificia Universidad Javeriana de Cali, 2019) Pan, Zhigeng; Luo, Xun; Zúñiga, Claudia; Castillo, Fabian; Portilla, Anita; Castillo, Andrés; Álvarez Vargas, Gloria Inés; Pabón, María Constanza; Linares Ospina, Diego Luis ; Martínez, Juan Carlos; Navarro Newball, Andrés AdolfoEste volumen, busca principalmente motivar y visualizar los trabajos de investigadores jóvenes. Es resultado de la conferencia Edutainment 2019, la treceava conferencia internacional en e-learning y juegos y, el Workshop on Computing and Technology in Health realizado en paralelo y como evento complementario a Edutainment. This volume seeks mainly to motivate and visualize the works of young researchers. It is the result of the Edutainment 2019 conference, the thirteenth international conference in e-learning and games and, the Workshop on Computing and Technology in Health held in parallel and as a complementary event to Edutainment.Item Técnicas de clustering aplicadas en un conjunto metabolitos perteneciente a pacientes de Leishmaniasis cutánea para predecir la efectividad del tratamiento glucantime a través de modelos de aprendizaje automático clásicos(Pontificia Universidad Javeriana Cali, 2023) Luna Mejía, Juan Pablo; Sadeghian Perskie, Naim Samuel; Linares Ospina, Diego Luis ; Álvarez Vargas, Gloria InésLos medicamentos usados para el tratamiento de la leishmaniasis pueden ser tóxicos y detrimentales para la salud. Peor aún, estos tratamientos no prometen curar al paciente en todos los casos. Para evitar recetar estos tratamientos a pacientes a quienes no van a recibir beneficios, se han hecho varios estudios [4][7] para tratar de predecir, por medio de muestras de metabolitos en la sangre, en qué pacientes el tratamiento será efectivo. En este proyecto se hizo una continuación de estos estudios, basados en los mismos datos usados. Estos datos observaron 535 atributos/metabolitos para solo 36 pacientes. El grueso de este proyecto estaba en reducir la dimensionalidad del conjunto de datos (2 a 5 metabolitos) y poder llegar a resultados cercanos o mejores a los ya existentes. Se entrenaron 4 diferentes modelos de clustering para encontrar posibles grupos y de cada uno escoger un representante. Para cada modelo se buscaron los parámetros los cuales llegaban a clusters con un mejor grado de separación. En la fase de escoger los representantes de cada cluster se usaron diferentes métricas como: cercanía al centro del cluster, o probabilidad de ser miembro del cluster, para decidir cuáles podrían ser los mejores representantes. Después de tener los representantes de cada grupo, se pasó a la fase de predicción, donde se observó qué tan buena era la predicción con este pequeño conjunto de atributos. Finalmente se llegó a un modelo con 3 metabolitos y un puntaje f1 de 0.82 el cual fue muy prometedor para una forma de reducción de la dimensionalidad tan particular y descriptiva como lo es ella selección por representantes de un agrupamiento.Item Técnicas de ensamble aplicadas a un conjunto de datos perteneciente a pacientes de leishmaniasis cutánea para predecir la efectividad del tratamiento Glucantime(Pontificia Universidad Javeriana Cali, 2021) Camacho Calderon, Katherine; Álvarez Vargas, Gloria Inés ; Linares Ospina, Diego LuisLa leishmaniasis es una enfermedad reemergente en Colombia. Catalogada por la Organización Mundial de la Salud como “enfermedad olvidada”, debido a que está asociada directamente con las personas que viven en regiones muy pobres. Por lo tanto, existe poco interés en invertir en el desarrollo de medicamentos y estrategias para controlar esta enfermedad. El glucantime es uno de los medicamentos usados para tratar la leishmaniasis cutánea, la cual ha sido una enfermedad reemergente en Colombia. La forma de administrar este medicamento en algunas ocasiones ha causado mucho dolor y el hecho de usarlo trae la posibilidad de causar efectos colaterales. El anterior panorama ha sido de inspiración para desarrollar modelos de aprendizaje automático que permitan predecir el desenlace terapéutico del tratamiento glucantime. Con este proyecto se obtuvieron cuatro modelos de aprendizaje automático, donde inicialmente se realizó́ un proceso de preparación de los datos, y luego con ayuda de las técnicas de ensamble se construyeron dichos modelos. Se realizaron evaluaciones de los distintos modelos construidos y se permitió inferir que ningún modelo presentó un desempeño que permita confiar en sus predicciones, esto dado que la cantidad de datos no fue suficiente para que los modelos construyeran hipótesis fuertes. Sin embargo, la técnica que permitió obtener el modelo con el mejor desempeño indica que probablemente con una cantidad mayor de datos se puedan obtener mejores predicciones. CIDEIM (Centro Internacional de Entrenamiento e Investigaciones Médicas) fue el ente que proporcionó el conjunto de datos con el cual se construyeron los modelos.