In this study, the benefits of choosing a robust optimization function with super resolution are analyzed. For this purpose, the different optimizers are included in the simple Convolutional Neural Network (CNN) architecture SRNET, to reveal the performance of the each method. Findings of this research provides that Adam and Nadam optimizers are robust when compared to (Stochastic Gradient Descent) SGD, Adagrad, Adamax and RMSprop. After experimental simulations, we have achieved the 35.91 (dB)/0.9960 and 35.97 (dB)/0.9961 accuracy rates on Set5 images from Adam and Nadam optimizers, respectively (9-1-5 network structure and filter sizes 128 and 64). These results show that selected optimization function for the CNN model plays an important role in increasing the accuracy rate in the super-resolution problem.
Bu çalışmada, süper çözünürlükte sağlam bir optimizasyon fonksiyonu seçmenin yararları analiz edilmiştir. Bu amaçla her yöntemin performansını ortaya çıkarmak için farklı optimize ediciler, basit Evrişimsel Sinir Ağı (CNN) mimarisi SRNET' e dahil edilmiştir. Bu araştırmanın bulguları, Adam ve Nadam optimize edicilerin Stokastik Gradyan İnişi (SGD), Adagrad, Adamax ve RMSprop ile karşılaştırıldığında daha kararlı olduğunu göstermektedir. Deneysel simülasyonlardan sonra, Adam ve Nadam optimize edicilerinden Set5 görüntülerinde sırasıyla 35.91 (dB)/0.9960 ve 35.97 (dB)/0.9961 doğruluk oranlarına ulaştık (9-1-5 ağ yapısı ve filtre boyutları 128 ve 64). Bu sonuçlar, CNN modeli için seçilen optimizasyon fonksiyonunun süper çözünürlük probleminde doğruluk oranını arttırmada önemli bir rol oynadığını göstermektedir.
Primary Language | English |
---|---|
Subjects | Engineering |
Journal Section | Articles |
Authors | |
Publication Date | December 31, 2021 |
Submission Date | November 1, 2020 |
Published in Issue | Year 2021 |
Bu eser Creative Commons Atıf-GayriTicari 4.0 Uluslararası Lisansı ile lisanslanmıştır.