Araştırma Makalesi
BibTex RIS Kaynak Göster

Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması

Yıl 2019, Cilt: 31 Sayı: 1, 109 - 121, 15.03.2019

Öz

Son zamanlarda görüntü işleme ile ilgili
gelişmeler, hızla gelişen teknolojik sistemlerin ilerlemesinde katkıda
bulunmuştur. Özellikle sağlık alanındaki görüntü işleme ile ilgili çalışmalar popülerliğini
daha da artırmıştır. Gerek tıbbi görüntüler olsun gerekse diğer alandaki
görüntüler olsun, mevcut yöntemler üzerinde başarı sağlatılmasına rağmen; derin
öğrenme modeli, mevcut yöntemlere kıyasla zaman ve performans açısından daha
fazla katkıda bulunan bir modeldir. Mevcut yöntemler ile tek katmanlı
görüntüler üzerinden işlem yapılıyorken, derin öğrenme modeliyle, çok katmanlı
görüntüler üzerinden performansı yüksek sonuçlar alınabilmektedir. Derin
öğrenmenin en önemli özelliği, görüntü üzerindeki işlemleri tek bir sefer de
işleme tabi tutan ve el ile girilmesi gereken parametreleri kendi kendine keşif
edebilmesidir. Ayrıca teknoloji firmalarının da derin öğrenmeye yönelmesi,
kendi aralarında rekabet gücünü artırdığı gibi, bilimsel anlamda derin öğrenme
üzerine kurdukları yöntemler, mevcut yöntemlere göre daha fazla tercih edilmeye
başlanılmıştır. Veri kümesi erişimi sınırlı olan alanlardan biri olan
biyomedikal alanında veri kümelerinin son zamanlarda hızlı bir şekilde elde
edilmesi bu alandaki görüntü işleme çalışmalarına, derin öğrenme modeliyle
beraber daha çok katkıda bulunacağı öngörülmektedir

Kaynakça

  • [1] J. Zhang, Y. Xia, Y. Xie, M. Fulham, and D. Feng, “Classification of Medical Images in the Biomedical Literature by Jointly Using Deep and Handcrafted Visual Features,” IEEE J. Biomed. Heal. Informatics, vol. 2194, no. 2, pp. 1–10, 2017. [2] S. Koitka and C. M. Friedrich, “Traditional feature engineering and deep learning approaches at medical classification task of imageCLEF 2016,” CEUR Workshop Proc., vol. 1609, pp. 304–317, 2016. [3] “Makineyle Öğrenme – GPU Hızlandırmalı Uygulamalar | Tesla Yüksek Başarımlı Hesaplama|NVIDIA.” [Online]. Available: http://www.nvidia.com.tr/object/tesla-gpu-machine-learning-tr.html. [Accessed: 12-Mar-2018] [4] “Keras Documentation.” [Online]. Available: https://keras.io/. [Accessed: 12-Mar-2018]. [5] Y. Jia et al., “Caffe: Convolutional Architecture for Fast Feature Embedding,” Jun. 2014. [6] “TensorFlow.” [Online]. Available: https://www.tensorflow.org/. [Accessed: 12-Mar-2018]. [7] Ö. R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 580–587, 2014. [8] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks,” Adv. Neural Inf. Process. Syst., pp. 1–9, 2012. [9] M. D. Zeiler and R. Fergus, “Visualizing and Understanding Convolutional Networks arXiv:1311.2901v3 [cs.CV] 28 Nov 2013,” Comput. Vision–ECCV 2014, vol. 8689, pp. 818–833, 2014. [10] C. Szegedy et al., “Going deeper with convolutions,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., vol. 07–12–June, pp. 1–9, 2015. [11] S. Wu, S. Zhong, and Y. Liu, “Deep residual learning for image steganalysis,” Multimed. Tools Appl., pp. 1–17, 2017. [12] S. Xie, R. Girshick, P. Dollár, Z. Tu, and K. He, “Aggregated Residual Transformations for Deep Neural Networks,” 2016. [13] R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 580–587, 2014. [14] A. Kumar, J. Kim, D. Lyndon, M. Fulham, and D. Feng, “An Ensemble of Fine-Tuned Convolutional Neural Networks for Medical Image Classification,” IEEE J. Biomed. Heal. Informatics, vol. 21, no. 1, pp. 31–40, 2017. [15] T. Valavanis, L.; Stathopoulos, S.; Kalamboukis, “CLEF 2016 | Conference and Labs of the Evaluation Forum,” 2016. [Online]. Available: http://clef2016.clef-initiative.eu/index.php?page=Pages/cfLabsParticipation.html. [Accessed: 12-Mar-2018] [16] A. Kumar, D. Lyndon, J. Kim, and D. Feng, “Subfigure and Multi-Label Classification using a Fine-Tuned Convolutional Neural Network,” pp. 1–4. [17] P. Li et al., “UDEL CIS at imageCLEF medical task 2016,” CEUR Workshop Proc., vol. 1609, pp. 334–346, 2016. [18] D. Semedo and J. Magalhães, “NovaSearch at imageCLEFmed 2016 subfigure classification task,” CEUR Workshop Proc., vol. 1609, pp. 386–398, 2016. [19] R. Achanta, A. Shaji, K. Smith, A. Lucchi, P. Fua, and S. Süsstrunk, “SLIC superpixels compared to state-of-the-art superpixel methods,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 34, no. 11, pp. 2274–2281, 2012. [20] B. Bozorgtabar, S. Sedai, P. K. Roy, and R. Garnavi, “Skin lesion segmentation using deep convolution networks guided by local unsupervised learning,” IBM J. Res. Dev., vol. 61, no. 4, p. 6:1-6:8, 2017. [21] “ Softmax .” [Online]. Available: https : // www.semanticscholar.org/ topic/ Softmax-function/966784/ [Accessed: 16-Nov-2018].
Yıl 2019, Cilt: 31 Sayı: 1, 109 - 121, 15.03.2019

Öz

Kaynakça

  • [1] J. Zhang, Y. Xia, Y. Xie, M. Fulham, and D. Feng, “Classification of Medical Images in the Biomedical Literature by Jointly Using Deep and Handcrafted Visual Features,” IEEE J. Biomed. Heal. Informatics, vol. 2194, no. 2, pp. 1–10, 2017. [2] S. Koitka and C. M. Friedrich, “Traditional feature engineering and deep learning approaches at medical classification task of imageCLEF 2016,” CEUR Workshop Proc., vol. 1609, pp. 304–317, 2016. [3] “Makineyle Öğrenme – GPU Hızlandırmalı Uygulamalar | Tesla Yüksek Başarımlı Hesaplama|NVIDIA.” [Online]. Available: http://www.nvidia.com.tr/object/tesla-gpu-machine-learning-tr.html. [Accessed: 12-Mar-2018] [4] “Keras Documentation.” [Online]. Available: https://keras.io/. [Accessed: 12-Mar-2018]. [5] Y. Jia et al., “Caffe: Convolutional Architecture for Fast Feature Embedding,” Jun. 2014. [6] “TensorFlow.” [Online]. Available: https://www.tensorflow.org/. [Accessed: 12-Mar-2018]. [7] Ö. R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 580–587, 2014. [8] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks,” Adv. Neural Inf. Process. Syst., pp. 1–9, 2012. [9] M. D. Zeiler and R. Fergus, “Visualizing and Understanding Convolutional Networks arXiv:1311.2901v3 [cs.CV] 28 Nov 2013,” Comput. Vision–ECCV 2014, vol. 8689, pp. 818–833, 2014. [10] C. Szegedy et al., “Going deeper with convolutions,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., vol. 07–12–June, pp. 1–9, 2015. [11] S. Wu, S. Zhong, and Y. Liu, “Deep residual learning for image steganalysis,” Multimed. Tools Appl., pp. 1–17, 2017. [12] S. Xie, R. Girshick, P. Dollár, Z. Tu, and K. He, “Aggregated Residual Transformations for Deep Neural Networks,” 2016. [13] R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 580–587, 2014. [14] A. Kumar, J. Kim, D. Lyndon, M. Fulham, and D. Feng, “An Ensemble of Fine-Tuned Convolutional Neural Networks for Medical Image Classification,” IEEE J. Biomed. Heal. Informatics, vol. 21, no. 1, pp. 31–40, 2017. [15] T. Valavanis, L.; Stathopoulos, S.; Kalamboukis, “CLEF 2016 | Conference and Labs of the Evaluation Forum,” 2016. [Online]. Available: http://clef2016.clef-initiative.eu/index.php?page=Pages/cfLabsParticipation.html. [Accessed: 12-Mar-2018] [16] A. Kumar, D. Lyndon, J. Kim, and D. Feng, “Subfigure and Multi-Label Classification using a Fine-Tuned Convolutional Neural Network,” pp. 1–4. [17] P. Li et al., “UDEL CIS at imageCLEF medical task 2016,” CEUR Workshop Proc., vol. 1609, pp. 334–346, 2016. [18] D. Semedo and J. Magalhães, “NovaSearch at imageCLEFmed 2016 subfigure classification task,” CEUR Workshop Proc., vol. 1609, pp. 386–398, 2016. [19] R. Achanta, A. Shaji, K. Smith, A. Lucchi, P. Fua, and S. Süsstrunk, “SLIC superpixels compared to state-of-the-art superpixel methods,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 34, no. 11, pp. 2274–2281, 2012. [20] B. Bozorgtabar, S. Sedai, P. K. Roy, and R. Garnavi, “Skin lesion segmentation using deep convolution networks guided by local unsupervised learning,” IBM J. Res. Dev., vol. 61, no. 4, p. 6:1-6:8, 2017. [21] “ Softmax .” [Online]. Available: https : // www.semanticscholar.org/ topic/ Softmax-function/966784/ [Accessed: 16-Nov-2018].
Toplam 1 adet kaynakça vardır.

Ayrıntılar

Birincil Dil Türkçe
Bölüm MBD
Yazarlar

Mesut Toğaçar 0000-0002-8264-3899

Burhan Ergen 0000-0003-3244-2615

Yayımlanma Tarihi 15 Mart 2019
Gönderilme Tarihi 26 Nisan 2018
Yayımlandığı Sayı Yıl 2019 Cilt: 31 Sayı: 1

Kaynak Göster

APA Toğaçar, M., & Ergen, B. (2019). Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması. Fırat Üniversitesi Mühendislik Bilimleri Dergisi, 31(1), 109-121.
AMA Toğaçar M, Ergen B. Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması. Fırat Üniversitesi Mühendislik Bilimleri Dergisi. Mart 2019;31(1):109-121.
Chicago Toğaçar, Mesut, ve Burhan Ergen. “Biyomedikal Görüntülerde Derin Öğrenme Ile Mevcut Yöntemlerin Kıyaslanması”. Fırat Üniversitesi Mühendislik Bilimleri Dergisi 31, sy. 1 (Mart 2019): 109-21.
EndNote Toğaçar M, Ergen B (01 Mart 2019) Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması. Fırat Üniversitesi Mühendislik Bilimleri Dergisi 31 1 109–121.
IEEE M. Toğaçar ve B. Ergen, “Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması”, Fırat Üniversitesi Mühendislik Bilimleri Dergisi, c. 31, sy. 1, ss. 109–121, 2019.
ISNAD Toğaçar, Mesut - Ergen, Burhan. “Biyomedikal Görüntülerde Derin Öğrenme Ile Mevcut Yöntemlerin Kıyaslanması”. Fırat Üniversitesi Mühendislik Bilimleri Dergisi 31/1 (Mart 2019), 109-121.
JAMA Toğaçar M, Ergen B. Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması. Fırat Üniversitesi Mühendislik Bilimleri Dergisi. 2019;31:109–121.
MLA Toğaçar, Mesut ve Burhan Ergen. “Biyomedikal Görüntülerde Derin Öğrenme Ile Mevcut Yöntemlerin Kıyaslanması”. Fırat Üniversitesi Mühendislik Bilimleri Dergisi, c. 31, sy. 1, 2019, ss. 109-21.
Vancouver Toğaçar M, Ergen B. Biyomedikal Görüntülerde Derin Öğrenme ile Mevcut Yöntemlerin Kıyaslanması. Fırat Üniversitesi Mühendislik Bilimleri Dergisi. 2019;31(1):109-21.