Sarria Montemiranda, Gerardo MauricioChapid Tobar, Willian DavidGómez Valencia, Sebastián2025-10-212025-10-212025http://hdl.handle.net/11522/4945En un mundo cada vez más digitalizado, la música juega un papel crucial en la regulación emocional de las personas. Sin embargo, los sistemas actuales de recomendación musical no capturan con precisión los estados emocionales individuales, limitando la personalización de la experiencia auditiva. Este proyecto aborda el análisis, adaptación e implementación de un sistema de inteligencia artificial (IA) generativa capaz de producir melodías utilizando instrumentos de cuerdas y percusión, con el objetivo de transmitir emociones específicas como la tristeza y la felicidad. A lo largo del proceso, se exploraron y evaluaron múltiples arquitecturas de modelos generativos de última generación, incluyendo redes neuronales recurrentes (RNN), redes convolucionales (CNN) y Transformers. Se llevó a cabo un proceso de reparametrización y ajuste del flujo de entrada de datos, con el fin de adaptar el modelo seleccionado a las condiciones y restricciones del proyecto. La implementación se centró en restringir y controlar los parámetros musicales y emocionales del sistema.In an increasingly digitalized world, music continues to play a vital role in the emotional regulation of individuals. However, current music recommendation systems face significant limitations in accurately capturing and responding to users’ emotional states, which hinders the effective personalization of the listening experience. This project focuses on the analysis, adaptation, and implementation of a generative artificial intelligence system capable of producing personalized melodies designed to convey specific emotions—particularly sadness and happiness. The system restricts its output to string and percussion instruments, selected for their expressive potential in emotional contexts. Various state-of-the-art generative model architectures were explored and evaluated, including recurrent neural networks (RNNs), convolutional neural networks (CNNs), and Transformers. Based on this comparative analysis, a reparameterization process and input data flow adjustment were carried out to adapt the selected model to the project’s technical and expressive constraints. The final implementation enables precise control over emotional and musical parameters, allowing for the generation of melodies that are both affectively aligned and musically coherent.81 p.application/pdfspaInteligencia artificial generativaMúsica emocionalGeneración de melodías basadas en emocionesModelos generativosGenerative artificial intelligenceEmotional musicEmotion-based melody generationGenerative modelsTransformersGeneración de melodías con instrumentos de cuerda y percusión aplicando inteligencia artificial generativa a partir de las emociones de tristeza y felicidadbachelor thesishttps://creativecommons.org/licenses/by-nc-sa/4.0/http://purl.org/coar/access_right/c_abf2