Bu çalışma, gelişmiş uyarlama teknikleriyle (Nicelleştirilmiş Düşük Sıra Uyarlaması (QLoRA) ve Düşük Sıra Uyarlaması (LoRA) ince ayarlanmış iki dönüştürücü mimarisi olan Mistral-7B ve GPT-2 kullanarak finans haberleri başlıklarında duygu sınıflandırmasının sistematik karşılaştırmalı bir analizini sunmaktadır. Büyük ölçekli bir Finans Haberleri veri kümesi kullanılarak, modeller, başlıkları pozitif, nötr ve negatif duygular olarak doğru bir şekilde sınıflandırma yetenekleri açısından titizlikle değerlendirilmiş ve aynı zamanda hesaplama verimliliği de göz önünde bulundurulmuştur. Genel doğruluğun ötesinde, makro ortalamalı kesinlik, geri çağırma ve F1 puanını bildiriyoruz; böylece modellerin sınıf bazındaki davranışlarına ilişkin daha eksiksiz bir resim sunuyoruz. Ampirik bulgular, Mistral-7B tabanlı yapılandırmaların GPT-2 tabanlı yapılandırmalardan önemli ölçüde daha iyi performans gösterdiğini, Mistral-7B-QLoRA'nın en yüksek doğruluğu (0.881) ve Mistral-7B-LoRA'nın 0.878 puanla elde ettiğini, GPT-2 modellerinin ise önemli ölçüde daha düşük performans gösterdiğini (GPT-2-LoRA için 0.519 ve GPT-2-QLoRA için 0.517) göstermektedir. Karışıklık matrisleri ve standart değerlendirme metriklerini içeren ayrıntılı analizler, Mistral-7B'nin sunduğu üstün sınıflandırma performansı ve kaynak verimliliği dengesinin altını çizmektedir. Çalışma, tek bir finansal veri kümesine odaklanma da dahil olmak üzere sınırlamaları tartışmaya devam etmekte ve farklı alanlarda ek mimarilerin ve uyarlama tekniklerinin değerlendirilmesi de dahil olmak üzere gelecekteki araştırmalar için beklentileri ana hatlarıyla belirtmektedir. Bu çalışma, büyük dil modelleri için ince ayar stratejilerinin geliştirilmesine katkıda bulunmakta ve kaynak kısıtlı ortamlarda duygu analizi işlem hatlarını optimize etmek için değerli bilgiler sunmaktadır.
Duygu Analizi İnce Ayar QLoRa (Nicelenmiş Düşük Sıralı Adaptation) LoRa (Low-Rank Adaptation) Gpt-2 Mistral-7B
This study presents a systematic comparative analysis of sentiment classification on financial news headlines using two transformer architectures, Mistral-7B and GPT-2, fine-tuned with advanced adaptation techniques—Quantized Low-Rank Adaptation (QLoRA) and Low-Rank Adaptation (LoRA).Utilising a large-scale Finance News dataset, the models are rigorously evaluated for their ability to accurately classify headlines into positive, neutral, and negative sentiments while also considering computational efficiency. Beyond overall accuracy, we report macro‑averaged precision, recall, and F1‑score, thereby providing a fuller picture of the models’ class‑wise behaviour.Empirical findings demonstrate that the Mistral-7B-based configurations substantially outperform those based on GPT-2, with Mistral-7B-QLoRA achieving the highest accuracy (0.881) and Mistral-7B-Lo RA, with a score of 0.878, while GPT-2 models demonstrate significantly lower performance (0.519 for GPT-2-LoRA and 0.517 for GPT-2-QLoRA). Detailed analyses, incorporating confusion matrices and standard evaluation metrics, underscore the superior balance of classification performance and resource efficiency offered by Mistral-7B. The study goes on to discuss limitations, including the focus on a single financial dataset, and outlines prospects for future research, including the evaluation of additional architectures and adaptation techniques across diverse domains.This work contributes to the advancement of fine-tuning strategies for large language models, offering valuable insights for optimising sentiment analysis pipelines in resource-constrained environments.
• Sentiment Analysis • Fine Tuning • QLoRa (Quantified Low Order Adaptation) • LoRa (Low-Rank Adaptation) • Gpt-2 • Mistral-7B
| Primary Language | English |
|---|---|
| Subjects | Computer Software |
| Journal Section | Research Article |
| Authors | |
| Early Pub Date | November 27, 2025 |
| Publication Date | November 27, 2025 |
| Submission Date | March 9, 2025 |
| Acceptance Date | May 31, 2025 |
| Published in Issue | Year 2025 Volume: 15 Issue: 4 |