TY - JOUR T1 - Derin Sinir Ağları ile En İyi Modelin Belirlenmesi: Mantar Verileri Üzerine Keras Uygulaması TT - Determining the Best Model with Deep Neural Networks: Keras Application on Mushroom Data AU - Ser, Gazel AU - Bati, Cafer Tayyar PY - 2019 DA - September Y2 - 2019 DO - 10.29133/yyutbd.505086 JF - Yuzuncu Yıl University Journal of Agricultural Sciences JO - YYU J AGR SCI PB - Van Yuzuncu Yıl University WT - DergiPark SN - 1308-7576 SP - 406 EP - 417 VL - 29 IS - 3 LA - tr AB - Buçalışma, derin sinir ağlarında en iyi sınıflandırma modelini bulmak amacıylagerçekleştirilmiştir. Bu amaçla, optimizasyon yöntemi (Sgd,Adagrad, Rmsprop, Adam ve Nadam), aktivasyon fonksiyonu (Tanhve ReLU) ve nöron sayılarının kombinasyonları kullanılarak 20 farklı modeloluşturulmuştur. Oluşturulan model kombinasyonlarının performanslarıkarşılaştırılarak, sınıflandırma için en iyi model belirlenmiştir. Sonuçlaragöre; modellerin performanslarının parametrelere bağlı olarak değişkenlikgösterdiği, en başarılı modelin gizli katmanında 64 nöron bulunduğu, aktivasyonfonksiyonunun ReLU olduğu ve optimizasyon yöntemi olarak da Rmspropkullanıldığı belirlenmiştir (%92 doğruluk).Bununla beraber, en düşük başarı oranıyla sınıflandırma yapan modelin 32nöronlu, ReLU aktivasyon fonksiyonlu ve Sgd optimizasyon yöntemli model olduğubelirlenmiştir (% 70 doğruluk). Ayrıca tüm sonuçlar göz önüne alındığında;Rmsprop, Adam ve Nadam optimizasyon yöntemlerinin diğer iki yönteme göre, ReLUaktivasyon fonksiyonunun ise Tanh’a göre daha başarılı olduğu belirlenmiştir.Sonuç olarak derin öğrenme çalışmalarında modeloluşturulurken; optimizasyon algoritmalarının, aktivasyonfonksiyonlarının ve nöron sayılarının farklı seçeneklerine göre modelperformanslarını denemek mümkündür. Ayrıca oluşturulan modelde, optimizasyonyöntemlerinin farklı parametrelerinin kombinasyonlarıyla çalışıldığında, veri setine daha uygun mimari elde edilmektedir. KW - Keras KW - Mantar KW - Optimizasyon yöntemi KW - Python N2 - Thisstudy was conducted to reveal the best classifying model with deep neuralnetworks. For this purpose, 20 different candidate models of optimizationmethod (Sgd, Adagrad, Rmsprop, Adam and Nadam), activation function (Tanh andReLU) and combinations of neurons were studied. By comparing the performance ofthese candidate models, the best model for classification was determined. Thepresent results indicated that the performance of the models varied accordingto the parameters, the most successful model has 64 neurons in the hiddenlayer, the activation function was ReLU and the Rmsprop was used as theoptimization method (92% accuracy). In addition, it was determined that themodel with the lowest success rate was the model with 32 neurons, ReLUactivation function and Sgd optimization method (70% accuracy). Also consideringall results; Rmsprop, Adam and Nadam optimization methods were found to be moresuccessful than the other two methods and ReLU activation function producedmore successful results than Tanh.As a result, while creating a model in deep learning studies;optimization algorithms, activation functions and number of neurons modelperformances can be tried according to different options. In addition, when the modelis worked with combinations of different parameters of optimization methods, amore suitable architecture is obtained for the data set. CR - Anonim, (2016). Optimization techniques comparison in Julia: SGD, Momentum, Adagrad, Adadelta, Adam. https://int8.io/comparison-of-optimization-techniques-stochastic-gradient-descent-momentum-adagrad-and-adadelta/. Erişim tarihi: 07.10.2018 CR - Anonim, (2018a). Deep Neural Network. https://www.techopedia.com/definition/32902/deep-neural-network. Erişim tarihi: 20.09.2018 CR - Anonim, (2018b). https://towardsdatascience.com/activation-functions-neural-networks-1cbd9f8d91d6. Erişim tarihi: 09.09.2018. CR - Çarkacı, N. (2018). Derin öğrenme uygulamalarında en sık kullanılan Hiper parameteler. https://medium.com/deep-learning-turkiye/derin-ogrenme-uygulamalarinda-en-sik-kullanilan-hiper-parametreler-ece8e9125c4. Erişim tarihi: 06.11.2018 CR - Dua, D. and Karra Taniskidou, E. (2017). UCI Machine Learning Repository [http://archive.ics.uci.edu/ml]. Irvine, CA: University of California, School of Information and Computer Science. CR - Kızrak, M.A., Bolat, B., (2018). Derin öğrenme ile Kalabalık Analizi üzerine detaylı bir araştırma. Bilişim Teknolojileri Dergisi. 11(3): 263-286. CR - Koptur, M. (2017). Yapay sinir ağları ve derin öğrenme-1. https://makineogrenimi.wordpress.com/2017/07/15/yapay-sinir-aglari-ve-derin-ögrenme-1/. Erişim tarihi: 12.10.2018 CR - Kurt, F. (2018). Evrişimli Sinir Ağlarında Hiper Parametrelerin Etkisinin İncelenmesi. Hacattepe Üniversitesi, Fen Bilimleri Enstitüsü, Bilgisayar Mühendisliği Anabilim Dalı (Yüksek Lisans Tezi). CR - Kutlu, H. (2018). Biyoistatistik Temelli Bilimsel Araştırmalarda Derin Öğrenme Uygulamaları. Yakındoğu Üniversitesi, Sağlık Bilimleri Enstitüsü, Biyoistatistik. (Yüksek Lisans tezi). CR - Li, P. (2017). Optimization Algorithms for Deep Learning. Department of Systems Engineering and Engineering Management. The Chinese University of Hong KongMaksutov, R. (2018). Deep study of a not very deep neural network. Part 3b: Choosing an optimizer. https://medium.com/@maksutov.rn/deep-study-of-a-not-very-deep-neural-network-part-3b-choosing-an-optimizer-de8965aaf1ff. Erişim tarihi: 07.10.2018 CR - Okut, H., (2018). Artificial Neural Network, Course Materials. CR - Okut, H., Gianola, D., Rosa, G.J.M., Weigel, K.A., (2011). Prediction of body mass index in mice using dense molecular markers and a regularized neural network. Genetics Research. 93(3): 189-201 CR - Öztemel, E. (2012). Yapay sinir Ağları. Papatya yayıncılık. CR - Priddy, K.L., Keller, P.E., (2005). Artificial neural network: An Introduction. The International Society for Optical Engineering. ISBN 0-8194- 5987-9. Bellingham, Washington USA CR - Ramachandran, P., Zoph, B., Le, Q.V. (2017). Searching for activation Functions. ArXive-prints arXiv:1710.05941v2 [cs.NE] 27 Oct 2017 CR - Ruder, S. (2016). "An overview of gradient descent optimization algorithms," ArXive-prints, vol. 1609. http://adsabs.harvard.edu/abs/2016arXiv160904747R CR - Sharma, A. (2017). Undersstanding Activation Functions in Neural Networks. https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0. Erişim tarihi: 13.10.2018 CR - Şengöz, N. (2017). Yapay sinir ağları. http://www.derinogrenme.com/author/nilgunsengoz/. Erişim tarihi: 13.10.2018 CR - Walia, A.S. (2017a). Types of optimization algoritms used in neural networks and ways to optimize gradient descent. https://towardsdatascience.com/types-of-optimization-algorithms-used-in-neural-networks-and-ways-to-optimize-gradient-95ae5d39529f. Erişim tarihi: 10.12.2018 CR - Walia, A.S. (2017b). Activation functions and it’s types-Whic is better. https://towardsdatascience.com/activation-functions-and-its-types-which-is-better-9a5310cc8f. Erişim tarihi: 10.12.2018 UR - https://doi.org/10.29133/yyutbd.505086 L1 - https://dergipark.org.tr/en/download/article-file/821607 ER -