Detección de Noticias Falsas: comparación entre modelos de aprendizaje profundo basados en redes neuronales y modelos de lenguaje de gran escala

dc.contributor.advisorGil González, Julián
dc.contributor.authorOviedo Santacruz, Claudia Patricia
dc.date.accessioned2025-11-10T13:56:15Z
dc.date.available2025-11-10T13:56:15Z
dc.date.issued2025
dc.description.abstractEn la era digital actual, la propagación de noticias falsas en plataformas digitales representa un desafío creciente para la sociedad, debido a su potencial para desinformar y generar consecuencias sociales, políticas y económicas. Este trabajo compara el desempeño de dos enfoques de aprendizaje profundo en la detección automática de noticias falsas: un modelo basado en redes neuronales Long Short-Term Memory y un modelo de lenguaje de gran escala preentrenado como BERT. Se utilizaron conjuntos de datos abiertos y técnicas de preprocesamiento de texto, además de estrategias de sintonización de hiperparámetros, para optimizar el rendimiento de cada modelo. Los resultados muestran que el modelo Long Short-Term Memory, tras la optimización, alcanzó una precisión del 92%, superando al modelo de lenguaje de gran escala, que logró un 89%. Estos hallazgos evidencian que, en tareas específicas y bajo condiciones controladas, modelos más livianos y tradicionales pueden superar a modelos más complejos, reafirmando la importancia de una selección cuidadosa del modelo en función del problema a tratar y los recursos disponibles.spa
dc.description.abstractIn today’s digital age, the spread of fake news on digital platforms represents a growing challenge for society due to its potential to misinform and generate social, political, and economic consequences. This study compares the performance of two deep learning approaches for the automatic detection of fake news: a model based on Long Short-Term Memory (LSTM) neural networks and a large-scale pretrained language model such as BERT. Open datasets and text preprocessing techniques were used, along with hyperparameter tuning strategies, to optimize the performance of each model. The results show that the Long Short-Term Memory model, after optimization, achieved an accuracy of 92%, outperforming the large-scale language model, which reached 89%. These findings demonstrate that, in specific tasks and under controlled conditions, lighter and more traditional models can outperform more complex ones, reaffirming the importance of carefully selecting the model based on the problem at hand and the available resources.eng
dc.description.degreelevelMaestría
dc.description.degreenameMagíster en Ingeniería
dc.format.extent14 p.
dc.format.mimetypeapplication/pdf
dc.identifier.urihttp://hdl.handle.net/11522/5077
dc.language.isospa
dc.publisherPontificia Universidad Javeriana Cali
dc.publisher.departmentFacultad de Ingeniería y Ciencias
dc.publisher.programMaestría en Ingeniería
dc.rights.accessrightshttp://purl.org/coar/access_right/c_abf2
dc.rights.creativecommonshttps://creativecommons.org/licenses/by-nc-sa/4.0/
dc.rights.urihttps://creativecommons.org/licenses/by-nc-sa/4.0/
dc.subjectNoticias falsasspa
dc.subjectAprendizaje profundospa
dc.subjectLSTMspa
dc.subjectLLMspa
dc.subjectBERTspa
dc.subjectFake newseng
dc.subjectDeep learningeng
dc.titleDetección de Noticias Falsas: comparación entre modelos de aprendizaje profundo basados en redes neuronales y modelos de lenguaje de gran escalaspa
dc.typemaster thesis
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.localTesis/Trabajo de grado - Monografía - Maestría
dc.type.redcolhttps://purl.org/redcol/resource_type/TM
Files
Original bundle
Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
Proyecto de Grado Final - Claudia Patricia Oviedo Santacruz,,.pdf
Size:
1.12 MB
Format:
Adobe Portable Document Format
No Thumbnail Available
Name:
Licencia de Uso - Claudia Patricia Oviedo Santacruz,,.pdf
Size:
370.7 KB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed to upon submission
Description: