Detección de Noticias Falsas: comparación entre modelos de aprendizaje profundo basados en redes neuronales y modelos de lenguaje de gran escala
| dc.contributor.advisor | Gil González, Julián | |
| dc.contributor.author | Oviedo Santacruz, Claudia Patricia | |
| dc.date.accessioned | 2025-11-10T13:56:15Z | |
| dc.date.available | 2025-11-10T13:56:15Z | |
| dc.date.issued | 2025 | |
| dc.description.abstract | En la era digital actual, la propagación de noticias falsas en plataformas digitales representa un desafío creciente para la sociedad, debido a su potencial para desinformar y generar consecuencias sociales, políticas y económicas. Este trabajo compara el desempeño de dos enfoques de aprendizaje profundo en la detección automática de noticias falsas: un modelo basado en redes neuronales Long Short-Term Memory y un modelo de lenguaje de gran escala preentrenado como BERT. Se utilizaron conjuntos de datos abiertos y técnicas de preprocesamiento de texto, además de estrategias de sintonización de hiperparámetros, para optimizar el rendimiento de cada modelo. Los resultados muestran que el modelo Long Short-Term Memory, tras la optimización, alcanzó una precisión del 92%, superando al modelo de lenguaje de gran escala, que logró un 89%. Estos hallazgos evidencian que, en tareas específicas y bajo condiciones controladas, modelos más livianos y tradicionales pueden superar a modelos más complejos, reafirmando la importancia de una selección cuidadosa del modelo en función del problema a tratar y los recursos disponibles. | spa |
| dc.description.abstract | In today’s digital age, the spread of fake news on digital platforms represents a growing challenge for society due to its potential to misinform and generate social, political, and economic consequences. This study compares the performance of two deep learning approaches for the automatic detection of fake news: a model based on Long Short-Term Memory (LSTM) neural networks and a large-scale pretrained language model such as BERT. Open datasets and text preprocessing techniques were used, along with hyperparameter tuning strategies, to optimize the performance of each model. The results show that the Long Short-Term Memory model, after optimization, achieved an accuracy of 92%, outperforming the large-scale language model, which reached 89%. These findings demonstrate that, in specific tasks and under controlled conditions, lighter and more traditional models can outperform more complex ones, reaffirming the importance of carefully selecting the model based on the problem at hand and the available resources. | eng |
| dc.description.degreelevel | Maestría | |
| dc.description.degreename | Magíster en Ingeniería | |
| dc.format.extent | 14 p. | |
| dc.format.mimetype | application/pdf | |
| dc.identifier.uri | http://hdl.handle.net/11522/5077 | |
| dc.language.iso | spa | |
| dc.publisher | Pontificia Universidad Javeriana Cali | |
| dc.publisher.department | Facultad de Ingeniería y Ciencias | |
| dc.publisher.program | Maestría en Ingeniería | |
| dc.rights.accessrights | http://purl.org/coar/access_right/c_abf2 | |
| dc.rights.creativecommons | https://creativecommons.org/licenses/by-nc-sa/4.0/ | |
| dc.rights.uri | https://creativecommons.org/licenses/by-nc-sa/4.0/ | |
| dc.subject | Noticias falsas | spa |
| dc.subject | Aprendizaje profundo | spa |
| dc.subject | LSTM | spa |
| dc.subject | LLM | spa |
| dc.subject | BERT | spa |
| dc.subject | Fake news | eng |
| dc.subject | Deep learning | eng |
| dc.title | Detección de Noticias Falsas: comparación entre modelos de aprendizaje profundo basados en redes neuronales y modelos de lenguaje de gran escala | spa |
| dc.type | master thesis | |
| dc.type.coar | http://purl.org/coar/resource_type/c_bdcc | |
| dc.type.local | Tesis/Trabajo de grado - Monografía - Maestría | |
| dc.type.redcol | https://purl.org/redcol/resource_type/TM |
Files
Original bundle
License bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- license.txt
- Size:
- 1.71 KB
- Format:
- Item-specific license agreed to upon submission
- Description: