Günümüzde dijital haber kaynaklarının hızla çoğalması, büyük ölçekli metin verilerinin etkin biçimde analiz edilmesini ve sınıflandırılmasını gerekli kılmaktadır. Bu çalışmada, çok sınıflı haber metinlerinin otomatik olarak sınıflandırılması amacıyla BERT (Bidirectional Encoder Representations from Transformers) ve onun türevi olan DistilBERT, RoBERTa ve ELECTRA modelleri karşılaştırmalı olarak değerlendirilmiştir. Her bir model, farklı haber kategorilerine ait metinlerin bağlamsal ve semantik özelliklerini öğrenerek sınıflandırma görevini gerçekleştirmiştir. Modellerin doğruluk, kesinlik, duyarlılık ve F1 skorları gibi çeşitli metrikler üzerinden performansları analiz edilmiştir. DistilBERT modeli, 0,92 doğruluk ve 0,92 ortalama F1 skoru ile en iyi performansı sergilemiştir. Elde edilen bulgular, transformer tabanlı modellerin haber sınıflandırma görevlerinde güçlü bir performans sergilediğini ortaya koymakta; ayrıca model mimarileri arasındaki farkların sınıflandırma başarımı üzerindeki etkisini göstermektedir. Bu sayede, farklı dil modeli mimarilerinin pratik uygulamalarda ne ölçüde etkili olabileceğine dair önemli çıkarımlar elde edilmiştir.
The rapid proliferation of digital news sources today necessitates the effective analysis and classification of large-scale textual data. In this study, BERT (Bidirectional Encoder Representations from Transformers) and its derivatives — DistilBERT, RoBERTa, and ELECTRA — were comparatively evaluated for the automatic classification of multi-class news texts. Each model performed the classification task by learning the contextual and semantic features of texts belonging to different news categories. The models’ performances were analyzed based on various metrics such as accuracy, precision, recall, and F1 score. Among them, the DistilBERT model demonstrated the best performance, achieving an accuracy of 0.92 and a mean F1 score of 0.92. The findings reveal that transformer-based models exhibit strong performance in news classification tasks and further illustrate the impact of architectural differences among these models on classification success. Accordingly, important insights have been gained regarding the practical effectiveness of different language model architectures.
BERT DistilBERT RoBERTa ELECTRA Natural language processing News classification Text classification
This study does not involve human or animal participants. All procedures followed scientific and ethical principles, and all referenced studies are appropriately cited.
This research received no external funding.
The authors do not wish to acknowledge any individual or institution.
| Primary Language | English |
|---|---|
| Subjects | Deep Learning, Classification Algorithms |
| Journal Section | Research Article |
| Authors | |
| Submission Date | July 7, 2025 |
| Acceptance Date | November 10, 2025 |
| Publication Date | January 21, 2026 |
| Published in Issue | Year 2026 Volume: 14 Issue: 1 |