Derin öğrenme ve makine öğrenmesinde bazen modeli ne kadar karmaşık hale getirsek de istediğimiz sonuçları elde edemeyebiliriz. Hatta fazla karmaşık bir model genelleme yeteneğini kaybedebilir ve aşırı öğrenme sorunuyla karşı karşıya kalabilir. Topluluk öğrenmesi yaklaşımları birden fazla modelin beraber çalışmasını gerektirdiği için modellerin genelleme yeteneğini artırır ve aşırı öğrenme sorununu önler. Bu çalışmada, ağırlıklı çoğunluk oylaması yöntemini kullanarak çeşitli derin öğrenme modelleri (ResNet, Inception, Vgg16) ve makine öğrenmesi algoritmalarının (kNN, Random Forest, SVM) bir araya getirilmesiyle oluşturulan bir topluluk öğrenmesi modeli sunulmaktadır. Her bir modelin ağırlığı, eğitim seti üzerindeki performansına göre otomatik olarak ayarlanmaktadır. Bu yaklaşımın, modellerin güçlü yönlerini birleştirerek genel tahmin performansını artırdığı ve aşırı öğrenmeye karşı dirençli bir yapı sağladığı gözlemlenmiştir. Sunulan topluluk öğrenmesi modeli, MNIST el yazısı rakam tanıma veri seti üzerinde yapılan deneylerle değerlendirilmiş ve bireysel çalışan modellere kıyasla önemli ölçüde daha iyi sonuçlar elde edilmiştir. Çalıştığımız veri setinde 28x28 boyutlarında 70000 adet rakam görüntüsü bulunmaktadır. Gerçekleştirdiğimiz eğitim ve sınıflandırma işlemleri sonucunda, modellerin bireysel performanslarına göre daha başarılı sonuçlar elde ederek, test doğruluğu %97,88 seviyesine kadar yükselmiştir.
Topluluk Öğrenmesi Ağırlıklı Çoğunluk Oylaması Makine Öğrenmesi Derin Öğrenme
In deep learning and machine learning, sometimes no matter how complex we make the model, it may fail to achieve the desired results. In fact, an overly complex model can lose its generalization ability and face the problem of overfitting. Ensemble learning approaches, which require the collaboration of multiple models, enhance the generalization capability of the models and prevent overfitting. This study presents an ensemble model created by combining various deep learning models (ResNet, Inception, VGG16) and machine learning algorithms (kNN, Random Forest, SVM) using the weighted majority voting method. The weight of each model is automatically adjusted based on its performance on the training set. This approach has been observed to enhance the overall prediction performance by leveraging the strengths of the models while providing a structure resistant to overfitting. The presented ensemble model was evaluated using experiments on the MNIST handwritten digit dataset and achieved significantly better results compared to the individual models operating alone. In our dataset, which contains 70,000 digit images of 28x28 dimensions, the classification operations have improved the accuracy to as high as 97.88%, surpassing the performance of individual models.
Ensemble Learning Weighted Majority Voting Machine Learning Deep Learning
| Birincil Dil | İngilizce |
|---|---|
| Konular | Derin Öğrenme |
| Bölüm | Araştırma Makalesi |
| Yazarlar | |
| Gönderilme Tarihi | 8 Şubat 2025 |
| Kabul Tarihi | 22 Haziran 2025 |
| Yayımlanma Tarihi | 15 Aralık 2025 |
| Yayımlandığı Sayı | Yıl 2025 Cilt: 8 Sayı: 5 |
* Uluslararası Hakemli Dergi (International Peer Reviewed Journal)
* Yazar/yazarlardan hiçbir şekilde MAKALE BASIM ÜCRETİ vb. şeyler istenmemektedir (Free submission and publication).
* Yılda Ocak, Mart, Haziran, Eylül ve Aralık'ta olmak üzere 5 sayı yayınlanmaktadır (Published 5 times a year)
* Dergide, Türkçe ve İngilizce makaleler basılmaktadır.
*Dergi açık erişimli bir dergidir.
Bu web sitesi Creative Commons Atıf 4.0 Uluslararası Lisansı ile lisanslanmıştır.