TY - JOUR T1 - Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması AU - Toğaçar, Mesut AU - Ergen, Burhan PY - 2019 DA - March JF - Fırat Üniversitesi Mühendislik Bilimleri Dergisi PB - Fırat Üniversitesi WT - DergiPark SN - 1308-9072 SP - 109 EP - 121 VL - 31 IS - 1 LA - tr AB - Son zamanlarda görüntü işleme ile ilgiligelişmeler, hızla gelişen teknolojik sistemlerin ilerlemesinde katkıdabulunmuştur. Özellikle sağlık alanındaki görüntü işleme ile ilgili çalışmalar popülerliğinidaha da artırmıştır. Gerek tıbbi görüntüler olsun gerekse diğer alandakigörüntüler olsun, mevcut yöntemler üzerinde başarı sağlatılmasına rağmen; derinöğrenme modeli, mevcut yöntemlere kıyasla zaman ve performans açısından dahafazla katkıda bulunan bir modeldir. Mevcut yöntemler ile tek katmanlıgörüntüler üzerinden işlem yapılıyorken, derin öğrenme modeliyle, çok katmanlıgörüntüler üzerinden performansı yüksek sonuçlar alınabilmektedir. Derinöğrenmenin en önemli özelliği, görüntü üzerindeki işlemleri tek bir sefer deişleme tabi tutan ve el ile girilmesi gereken parametreleri kendi kendine keşifedebilmesidir. Ayrıca teknoloji firmalarının da derin öğrenmeye yönelmesi,kendi aralarında rekabet gücünü artırdığı gibi, bilimsel anlamda derin öğrenmeüzerine kurdukları yöntemler, mevcut yöntemlere göre daha fazla tercih edilmeyebaşlanılmıştır. Veri kümesi erişimi sınırlı olan alanlardan biri olanbiyomedikal alanında veri kümelerinin son zamanlarda hızlı bir şekilde eldeedilmesi bu alandaki görüntü işleme çalışmalarına, derin öğrenme modeliyleberaber daha çok katkıda bulunacağı öngörülmektedir KW - KSA KW - derin öğrenme KW - görüntü işleme KW - biyomedikal KW - biyomedikal görüntüler CR - [1] J. Zhang, Y. Xia, Y. Xie, M. Fulham, and D. Feng, “Classification of Medical Images in the Biomedical Literature by Jointly Using Deep and Handcrafted Visual Features,” IEEE J. Biomed. Heal. Informatics, vol. 2194, no. 2, pp. 1–10, 2017. [2] S. Koitka and C. M. Friedrich, “Traditional feature engineering and deep learning approaches at medical classification task of imageCLEF 2016,” CEUR Workshop Proc., vol. 1609, pp. 304–317, 2016. [3] “Makineyle Öğrenme – GPU Hızlandırmalı Uygulamalar | Tesla Yüksek Başarımlı Hesaplama|NVIDIA.” [Online]. Available: http://www.nvidia.com.tr/object/tesla-gpu-machine-learning-tr.html. [Accessed: 12-Mar-2018] [4] “Keras Documentation.” [Online]. Available: https://keras.io/. [Accessed: 12-Mar-2018]. [5] Y. Jia et al., “Caffe: Convolutional Architecture for Fast Feature Embedding,” Jun. 2014. [6] “TensorFlow.” [Online]. Available: https://www.tensorflow.org/. [Accessed: 12-Mar-2018]. [7] Ö. R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 580–587, 2014. [8] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks,” Adv. Neural Inf. Process. Syst., pp. 1–9, 2012. [9] M. D. Zeiler and R. Fergus, “Visualizing and Understanding Convolutional Networks arXiv:1311.2901v3 [cs.CV] 28 Nov 2013,” Comput. Vision–ECCV 2014, vol. 8689, pp. 818–833, 2014. [10] C. Szegedy et al., “Going deeper with convolutions,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., vol. 07–12–June, pp. 1–9, 2015. [11] S. Wu, S. Zhong, and Y. Liu, “Deep residual learning for image steganalysis,” Multimed. Tools Appl., pp. 1–17, 2017. [12] S. Xie, R. Girshick, P. Dollár, Z. Tu, and K. He, “Aggregated Residual Transformations for Deep Neural Networks,” 2016. [13] R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 580–587, 2014. [14] A. Kumar, J. Kim, D. Lyndon, M. Fulham, and D. Feng, “An Ensemble of Fine-Tuned Convolutional Neural Networks for Medical Image Classification,” IEEE J. Biomed. Heal. Informatics, vol. 21, no. 1, pp. 31–40, 2017. [15] T. Valavanis, L.; Stathopoulos, S.; Kalamboukis, “CLEF 2016 | Conference and Labs of the Evaluation Forum,” 2016. [Online]. Available: http://clef2016.clef-initiative.eu/index.php?page=Pages/cfLabsParticipation.html. [Accessed: 12-Mar-2018] [16] A. Kumar, D. Lyndon, J. Kim, and D. Feng, “Subfigure and Multi-Label Classification using a Fine-Tuned Convolutional Neural Network,” pp. 1–4. [17] P. Li et al., “UDEL CIS at imageCLEF medical task 2016,” CEUR Workshop Proc., vol. 1609, pp. 334–346, 2016. [18] D. Semedo and J. Magalhães, “NovaSearch at imageCLEFmed 2016 subfigure classification task,” CEUR Workshop Proc., vol. 1609, pp. 386–398, 2016. [19] R. Achanta, A. Shaji, K. Smith, A. Lucchi, P. Fua, and S. Süsstrunk, “SLIC superpixels compared to state-of-the-art superpixel methods,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 34, no. 11, pp. 2274–2281, 2012. [20] B. Bozorgtabar, S. Sedai, P. K. Roy, and R. Garnavi, “Skin lesion segmentation using deep convolution networks guided by local unsupervised learning,” IBM J. Res. Dev., vol. 61, no. 4, p. 6:1-6:8, 2017. [21] “ Softmax .” [Online]. Available: https : // www.semanticscholar.org/ topic/ Softmax-function/966784/ [Accessed: 16-Nov-2018]. UR - http://dergipark.org.tr/tr/pub/fumbd/issue//534765 L1 - http://dergipark.org.tr/tr/download/article-file/662009 ER -