In recent years, sentiment analysis has become a crucial task in the field of natural language processing (NLP). Despite significant advancements in individual sentiment analysis models, combining multiple models can further enhance performance and robustness. This paper proposes an ensemble model using stacking to integrate the outputs of different sentiment analysis models applied to news articles related to BIST30 stocks traded on Borsa Istanbul. The base models include Long Short-Term Memory (LSTM), Bidirectional Encoder Representations from Transformers (BERT), Naive Bayes, and Support Vector Machines (SVM). The meta-learner is a logistic regression model that aggregates the predictions of the base models. This ensemble approach demonstrates improved accuracy and generalization capabilities over single-model approaches in analyzing the sentiment of financial news.
Son yıllarda, duygu analizi, doğal dil işleme (NLP) alanında önemli bir görev haline gelmiştir. Bireysel duygu analizi modellerinde önemli ilerlemeler kaydedilmiş olmasına rağmen, birden fazla modelin birleştirilmesi performansı ve dayanıklılığı daha da artırabilir. Bu makale, Borsa İstanbul'da işlem gören BIST30 hisseleriyle ilgili haber makalelerine uygulanan farklı duygu analizi modellerinin çıktılarının entegrasyonu için stacking kullanan bir ensemble modeli önermektedir. Temel modeller arasında Uzun Kısa Süreli Bellek (LSTM), İki Yönlü Kodlayıcı Temsillerinden Transformatorler (BERT), Naive Bayes ve Destek Vektör Makineleri (SVM) bulunmaktadır. Meta-öğrenici, temel modellerin tahminlerini birleştiren lojistik regresyon modelidir. Bu ensemble yaklaşımı, finansal haberlerin duygu analizinde tek model yaklaşımlarına göre geliştirilmiş doğruluk ve genelleme yetenekleri sergilemektedir.
Primary Language | English |
---|---|
Subjects | Industrial Engineering |
Journal Section | Research Article |
Authors | |
Publication Date | October 27, 2024 |
Submission Date | August 6, 2024 |
Acceptance Date | October 22, 2024 |
Published in Issue | Year 2024 Volume: 1 Issue: 2 |