Repository logo
  • Communities & Collections
  • All of DSpace
  • English
  • Català
  • Čeština
  • Deutsch
  • Español
  • Français
  • Gàidhlig
  • Italiano
  • Latviešu
  • Magyar
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Suomi
  • Svenska
  • Türkçe
  • Tiếng Việt
  • Қазақ
  • বাংলা
  • हिंदी
  • Ελληνικά
  • Yкраї́нська
  • Log In
    New user? Click here to register.Have you forgotten your password?
  1. Home
  2. Browse by Subject

Browsing by Subject "Natural Language Processing (NLP)"

Now showing 1 - 2 of 2
Results Per Page
Sort Options
  • Loading...
    Thumbnail Image
    Item
    Comparación de metodologías PEFT aplicadas a modelos de lenguaje grandes enfocados en generar resúmenes de textos
    (Pontificia Universidad Javariana Cali, 2024) Barrera Sáenz, Sebastián; Arévalo Rodríguez, Carlos Andrés; Flórez Pazos, Bryan Stiven; Castaño Idárraga, Omar Andrés
    La generación automática de resúmenes de texto ha emergido como un área clave dentro del Procesamiento de Lenguaje Natural (PLN). Este proyecto busca mejorar esta tarea mediante el uso de metodologías de ajuste eficiente de parámetros (PEFT) aplicadas a modelos de lenguaje grandes (LLM). Estas técnicas de ajuste fino adaptan modelos pre-entrenados a la tarea específica de resumen, optimizando su rendimiento en términos de coherencia y precisión. Esto permite simplificar la comprensión de grandes volúmenes de información, facilitando la toma de decisiones en distintos sectores. El desafío principal radica en producir resúmenes precisos en entornos complejos, donde los métodos tradicionales encuentran limitaciones. Las metodologías PEFT mejoran tanto la eficiencia computacional como la adaptabilidad de los modelos a distintos dominios y estilos textuales, generando resúmenes más contextuales y relevantes. Este estudio busca, además, optimizar el rendimiento de los modelos reduciendo la necesidad de grandes conjuntos de datos y costos computacionales, sin comprometer la calidad del resumen. La comparación de varias metodologías PEFT permite identificar cuáles son más efectivas para ajustar modelos de lenguaje en la tarea de resumen, logrando un balance entre eficiencia y calidad. Los resultados obtenidos proporcionarán una guía para futuras aplicaciones en sectores que requieren procesar grandes volúmenes de texto, permitiendo seleccionar el método más adecuado según los recursos disponibles y el tipo de texto.
  • Loading...
    Thumbnail Image
    Item
    Generación de noticias a partir de conjuntos de datos económicos utilizando técnicas de inteligencia artificial y aprendizaje automático
    (Pontificia Universidad Javeriana Cali, 2025) López Gómez, David Leonardo; Bejarano Bejarano, Luis Vidal; Linares Ospina, Diego Luis; Álvarez Vargas, Gloria Inés
    En el contexto actual de rápida generación de datos económicos, surge el desafío de transformar conjuntos de datos complejos en información accesible y comprensible. Esta investigación aborda esta problemática mediante el uso de técnicas de inteligencia artificial (IA) y aprendizaje automático (AA) para la generación automatizada de noticias basadas en procesamiento de lenguaje natural (PLN). Aquí, el problema radica en la ineficiencia de los métodos tradicionales de análisis de datos frente al volumen y la complejidad de la información económica contemporánea. Además, los medios de comunicación enfrentan una creciente demanda de entrega rápida y precisa de contenidos, lo que presenta desafíos significativos en términos de costos y operatividad. Para abordar estos retos, se desarrolló un sistema basado en los modelos T5 y GPT-2, ambos con arquitecturas de tipo transformer. Los datos económicos fueron preprocesados, limpiados y estructurados para entrenar los modelos. Se realizaron ajustes utilizando hiperparámetros optimizados y métricas de evaluación como BLEU, BERTScore y perplejidad, con el objetivo de medir la calidad de los textos generados. Los resultados mostraron que el modelo T5 superó al GPT-2 en precisión, coherencia y fluidez del texto generado, logrando un BLEU de 0.14, un BERTScore promedio (F1) de 0.83 y una perplejidad de 1.11 tras la optimización. En comparación, el GPT-2 alcanzó un BLEU de 0.15, un BERTScore promedio (F1) de 0.70 y una perplejidad de 12.75. Estas métricas indican que el T5 es más adecuado para generar textos complejos y altamente estructurados, mientras que el GPT-2 destaca en tareas donde se requiere mayor creatividad y generación de contenido más diversificado. El resultado de esta investigación, aporta un avance en la transformación de datos económicos en contenido informativo, reduciendo costos y tiempos asociados a los procesos tradicionales. La solución propuesta se presenta como una herramienta prometedora para democratizar el acceso a información económica y apoyar la toma de decisiones en entornos dinámicos.
logo-javeriana

Pontificia Universidad Javeriana Cali

Calle 18 No 118-250 Cali, Colombia

Teléfono:(+57) 602-321-82-00/602-485-64-00 - Línea gratuita nacional 01-8000-180556

Contacto repositorio Vitela: vitela@javerianacali.edu.co