Model complexity, dataset size and optimizer choice critically influence machine learning model performance, especially in complex architectures like Transformers. This study aims to analyze the impact of seven optimizers —Adam, AdamW, AdaBelief, RMSprop, Nadam, Adagrad and SGD—across two Transformer configurations and three dataset sizes. Results show adaptive optimizers generally outperform non-adaptive ones like SGD, particularly as dataset size grows. For smaller datasets (20K, 50K), Adam, AdamW, Nadam and RMSprop perform best on low-complexity models, while AdaBelief, Adagrad and SGD excel with higher complexity. On the largest dataset (∼140K samples), Nadam and RMSprop lead in low-complexity models, whereas Adam, AdaBelief, Adagrad, SGD and AdamW do so in high-complexity models. Notably, low-complexity models train more than twice as fast and, in some cases, achieve better accuracy and lower loss than their high-complexity counterparts. This result highlighting the importance of balancing optimizer choice, dataset size and model complexity for efficiency and accuracy. These results emphasize the trade-offs associated with optimizing model efficiency and accuracy through the interplay of optimizer selection, dataset size and model complexity.
Transformer architecture Optimizer comparison Model complexity Dataset size Optimizers Training efficiency Deep learning Natural Language Processing
This study does not involve human participants or animals. All data used are publicly available, and no ethical approval was required.
This work has been supported by the Scientific Research Projects Coordination Unit of the Sivas University of Science and Technology.
2024-DTP-Müh-0004
The authors would like to thank the Scientific Research Projects Coordination Unit of the Sivas University of Science and Technology for supporting this work under Project Number: 2024-DTP-Müh-0004. Computing resources were provided by the National Center for High Performance Computing of Turkey (UHeM) under grant number 5020092024. Additional computational support was provided by the TUBITAK ULAKBIM High Performance and Grid Computing Center (TRUBA) and the Lütfi Albay Artificial Intelligence and Robotics Laboratory at the Sivas University of Science and Technology.
Model karmaşıklığı, veri kümesi boyutu ve optimizer seçimi, özellikle Transformatörler gibi karmaşık mimarilerde makine öğrenimi model performansını önemli ölçüde etkiler. Bu çalışma, yedi optimizer’ın -Adam, AdamW, AdaBelief, RMSprop, Nadam, Adagrad ve SGD- iki Transformer konfigürasyonu ve üç veri kümesi boyutu üzerindeki etkisini analiz etmeyi amaçlamaktadır. Sonuçlar, özellikle veri kümesi boyutu büyüdükçe, uyarlanabilir optimizer’ların genellikle SGD gibi uyarlanabilir olmayanlardan daha iyi performans gösterdiğini göstermektedir. Daha küçük veri kümeleri (20K, 50K) için Adam, AdamW, Nadam ve RMSprop düşük karmaşıklığa sahip modellerde en iyi performansı gösterirken AdaBelief, Adagrad ve SGD daha yüksek karmaşıklıkta üstünlük sağlamaktadır. En büyük veri setinde (∼140K örnek), Nadam ve RMSprop düşük karmaşıklıktaki modellerde lider olurken, Adam, AdaBelief, Adagrad, SGD ve AdamW yüksek karmaşıklıktaki modellerde bunu başarmaktadır. Özellikle, düşük karmaşıklıktaki modeller iki kattan daha hızlı eğitilmekte ve bazı durumlarda yüksek karmaşıklıktaki muadillerine göre daha iyi doğruluk ve daha düşük kayıp elde etmektedir. Bu sonuç, verimlilik ve doğruluk için optimizer seçimi, veri kümesi boyutu ve model karmaşıklığını dengelemenin önemini vurgulamaktadır. Bu sonuçlar, optimizer seçimi, veri kümesi boyutu ve model karmaşıklığının karşılıklı etkileşimi yoluyla model verimliliği ve doğruluğunun optimize edilmesiyle ilişkili ödünleşimleri vurgulamaktadır.
Transformer mimarisi Optimizasyon algoritmalarının karşılaştırılması Model karmaşıklığı Veri kümesi boyutu Optimizasyon algoritmaları Eğitim verimliliği Derin öğrenme Doğal dil işleme
Bu çalışma insan katılımcıları veya hayvanları içermemektedir. Kullanılan tüm veriler kamuya açıktır ve herhangi bir etik onay gerekmemiştir.
2024-DTP-Müh-0004
| Birincil Dil | İngilizce |
|---|---|
| Konular | İstatistiksel Veri Bilimi |
| Bölüm | Araştırma Makalesi |
| Yazarlar | |
| Proje Numarası | 2024-DTP-Müh-0004 |
| Erken Görünüm Tarihi | 3 Aralık 2025 |
| Yayımlanma Tarihi | 3 Aralık 2025 |
| Gönderilme Tarihi | 11 Temmuz 2025 |
| Kabul Tarihi | 22 Kasım 2025 |
| Yayımlandığı Sayı | Yıl 2026 Cilt: 9 Sayı: 1 |