Research Article

Yapay Sinir Ağlarında Öğrenme Dinamiğini ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi

Volume: 16 Number: 1 March 10, 2026
TR EN

Yapay Sinir Ağlarında Öğrenme Dinamiğini ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi

Abstract

Bu çalışma, Yapay Sinir Ağları (YSA) eğitim sürecinde hayati öneme sahip olan aktivasyon fonksiyonlarının tasarlanmasında hibritleştirme yaklaşımının potansiyelini araştırmaktadır. Literatürdeki çalışmaların çoğunlukla fonksiyonların modifiye edilmiş versiyonlarına odaklanmasının aksine, bu araştırmanın temel amacı, yaygın kullanılan ReLU, Tanh, Sigmoid ve benzeri standart fonksiyonların saf hallerini, basit bir parçalı tanım altında birleştirerek öğrenme süreçlerine etkisini değerlendirmektir. Hibrit yapı, girişin işaretine bağlı olarak (x<0 için f_1 (x) ve x ≥0 için f_2 (x)) farklı temel fonksiyonların uygulanmasına dayanır. Deneysel analizler, sığ (1 gizli katman), orta (5 gizli katman) ve derin (10 gizli katman) çok katmanlı algılayıcı (MLP) mimarileri üzerinde Iris, Wine ve BCW veri setleri kullanılarak gerçekleştirilmiştir. Sonuçlar, hibrit yaklaşımların özellikle derin ağlarda belirgin avantajlar sunduğunu göstermiştir. Özellikle Tanh–ReLU kombinasyonu, hem 5 hem de 10 gizli katmanlı modellerde en kararlı öğrenme dinamiğini sağlamış ve en yüksek test doğruluklarına ulaşmıştır. Saf aktivasyonlar (ReLU–ReLU, Mish–Mish) derin ağlarda gradyan dengesini korumakta zorlanırken, Sigmoid içeren hibritler ise erken doyum sorunu yaşamıştır. Bu bulgular, Tanh gibi sıfır-merkezli ve düzgün geçiş sağlayan bir fonksiyonun, ReLU gibi güçlü gradyan akışını destekleyen bir fonksiyonla birleştirilmesinin, öğrenmeyi dengelediğini ve genelleme başarımını artırdığını güçlü bir şekilde desteklemektedir.

Keywords

Yapay Sinir Ağları (YSA), Aktivasyon Fonksiyonları, Hibrit Aktivasyon, Derin Öğrenme

References

  1. Basirat, M., ve Roth, P. (2020). L* ReLU: piece-wise linear activation functions for deep fine-grained visual categorization. Proceedings of the IEEE/CVF Winter Conference on Applications on Computer Vision.
  2. Cheng, Q., Hu, S., Wang, H., Lu, Y., ve Yu, W. (2020). Parametric deformable exponential linear units for deep neural networks. Neural Networks, 125, 281-289.
  3. Clevert, D., Unterthiner, T., ve Hochreiter, S. (2015). Fast and accurate deep network learning by exponential linear units (elus). arXiv preprint arXiv:1511.07289, 4.5, 11.
  4. Dubey, S. R., Singh, S. K., ve Chaudhuri, B. B. (2022). Activation functions in deep learning: A comprehensive survey and benchmark. Neurocomputing, 503, 92-108.
  5. Elfwing, S., Uchibe, E., ve Doya, K. (2018). Sigmoid-weighted linear units for neural network function approximation in reinforcement learning. Neural networks, 107, 3-11.
  6. Fausett, L. V. (2006). Fundamentals of neural networks: architectures, algorithms and applications. Pearson Education India.
  7. Gu, S., et al. (2019). Fast image restoration with multi-bin trainable linear units. Proceedings of the IEEE/CVF International Conference on Computer Vision.
  8. Gurney, K. (2018). An introduction to neural networks. CRC press.
  9. Hasan, M. R., M. S. Uddin, ve P. K. R. M. N. R. K. Hossain. (2023). TaLU: Tanh Leaky ReLU Activation Function for Deep Neural Networks. Proceedings of the 2nd International Conference on Advanced Research in Computing (ICARC).
  10. He, K., Zhang, X., Ren, S., ve Sun, J. (2015). Delving deep into rectifiers: Surpassing human-level performance on imagenet classification. Proceedings of the IEEE international conference on computer vision.
APA
Yılmaz, A., & Şimşek, C. (2026). Yapay Sinir Ağlarında Öğrenme Dinamiğini ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi. Karadeniz Fen Bilimleri Dergisi, 16(1), 497-513. https://doi.org/10.31466/kfbd.1826121
AMA
1.Yılmaz A, Şimşek C. Yapay Sinir Ağlarında Öğrenme Dinamiğini ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi. KFBD. 2026;16(1):497-513. doi:10.31466/kfbd.1826121
Chicago
Yılmaz, Ahmet, and Cemaleddin Şimşek. 2026. “Yapay Sinir Ağlarında Öğrenme Dinamiğini Ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi”. Karadeniz Fen Bilimleri Dergisi 16 (1): 497-513. https://doi.org/10.31466/kfbd.1826121.
EndNote
Yılmaz A, Şimşek C (March 1, 2026) Yapay Sinir Ağlarında Öğrenme Dinamiğini ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi. Karadeniz Fen Bilimleri Dergisi 16 1 497–513.
IEEE
[1]A. Yılmaz and C. Şimşek, “Yapay Sinir Ağlarında Öğrenme Dinamiğini ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi”, KFBD, vol. 16, no. 1, pp. 497–513, Mar. 2026, doi: 10.31466/kfbd.1826121.
ISNAD
Yılmaz, Ahmet - Şimşek, Cemaleddin. “Yapay Sinir Ağlarında Öğrenme Dinamiğini Ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi”. Karadeniz Fen Bilimleri Dergisi 16/1 (March 1, 2026): 497-513. https://doi.org/10.31466/kfbd.1826121.
JAMA
1.Yılmaz A, Şimşek C. Yapay Sinir Ağlarında Öğrenme Dinamiğini ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi. KFBD. 2026;16:497–513.
MLA
Yılmaz, Ahmet, and Cemaleddin Şimşek. “Yapay Sinir Ağlarında Öğrenme Dinamiğini Ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi”. Karadeniz Fen Bilimleri Dergisi, vol. 16, no. 1, Mar. 2026, pp. 497-13, doi:10.31466/kfbd.1826121.
Vancouver
1.Ahmet Yılmaz, Cemaleddin Şimşek. Yapay Sinir Ağlarında Öğrenme Dinamiğini ve Başarımı Artırmak İçin Standart Aktivasyonların Hibritleştirilmesi. KFBD. 2026 Mar. 1;16(1):497-513. doi:10.31466/kfbd.1826121