Research Article
BibTex RIS Cite

Uzaktan algılama verilerinin derin öğrenme algoritmaları ile sınıflandırılması

Year 2019, Volume: 1 Issue: 1, 28 - 34, 15.12.2019

Abstract

Günümüzde teknolojinin hızlı bir şekilde ilerlemesi ile birlikte yaşadığımız çevre hakkında farklı platformlardaki araçlardan faydalanarak detaylı bilgiler elde edilmektedir. Konumsal veri üretiminde hava ve uydu platformlarından elde edilen görüntüler kullanılmaktadır. Bu görüntüler bitki örtüsü tespitinden, doğal afetler ve şehir planlamasına kadar birçok alanda kullanılmaktadır. Uzaktan algılama verilerindeki yüksek çözünürlüklü görüntüler sayesinde insan yapımı yapay unsurların tespitinde kolaylaşmıştır. Ancak yüksek çözünürlüklü verilerinin sunduğu bu avantajların yanında yoğun ayrıntı içeriği nedeni ile sınıflandırmada işlemlerinde insan becerisi ve müdahalesine duyulan gereksinimin fazlalığı günümüzde önemli sorunlardan biri olarak karşımıza çıkmaktadır. Günümüze kadar insan faktörünün azaltılmasına yönelik birçok sınıflandırma yaklaşımı sunulmuştur.


Daha önceden bilgisayar teknolojisinde yeterli olmayan donanımsal ve yazılımsal araçlardan dolayı, yapay zekanın temelleri sayılan makine öğrenmesi ve derin öğrenme gibi konular pek incelenmemiştir. Ancak günümüzde grafik işlemcilerde ve yazılımlardaki ilerlemeler sayesinde popülerliğini arttırmıştır. Son çalışmalardaki performansı ile derin öğrenme yaklaşımı, makine öğrenmesinden ziyade daha umut vericidir. Bu çalışmada mevcutta bulunan sınıflandırma yöntemlerine alternatif olacak derin öğrenme algoritmalarını kullanarak sınıflandırma yapılmıştır. Algoritmanın test edilmesi için Uluslararası Fotogrametri ve Uzaktan Algılama Topluluğu (UFUAT)’ dan temin edilmiş Vaihingen veri seti kullanılmıştır. Kullanılan veri setinden zemin, bina, ağaç, bitki örtüsü ve araç olacak şekilde 5 tane detay sınıfı seçilmiştir. Bu detaylardan algoritma en yüksek olarak bina sınıfına ait olanları ortalama %99 seviyesinde, en düşük olarak araç sınıfına ait detayları ortalama %95 olarak belirlemiştir. Bu çalışmadan elde edilen sonuçlarla, uzaktan algılama verilerinin otomatik sınıflandırılmasında derin öğrenme algoritmalarının iyi bir alternatif olduğu görülmektedir.

References

  • Rosenblatt, F., 1958. The Perceptron: A probabilistic model for information storage and organization in the brain. In: Psychological Review, Cornell aeronaulical laboratory, New York, USA, Vol. LXV, No. 6, pp 386-408.
  • Ivakhnenko, A.,G. and Lapa, V.,G. 1966. Cybernetic predicting devices.
  • Dettmers, T., 2015. Deep learning in a nutshell: history and training parallel forall. Available: https://devblogs.nvidia.com/parallelforall/deep-learning-nutshell-history-training/[Accessed: 12-Apr-2019].
  • LeCun, Y., et al., 1989. Backpropagation Applied to Handwritten Zip Code Recognition, Neural Comput., vol. 1, no. 4, pp. 541–551, Dec.
  • LeCun Y., Boser B., and Denker, J., S., 1989. Handwritten Digit Recognition with a Back-Propagation Network.
  • Huang, C., Davis, L. S. and Townshed, JRG., 2002. An assessment of support vector machines for land cover classification. International Journal of Remote Sensing, 23, 725–749.
  • Kavzoglu, T. ve Çölkesen, İ., 2010. Karar ağaçları ile uydu görüntülerinin sınıflandırılması: Kocaeli örneği, Electronic Journal of Map Technologies, Vol :2, No:1, pp 36-45
  • Krizhevsky, A., Sutkever, A. and Hinton, G., E. 2012. ImageNet classification with deep convolutional neural networks. Advances in neural Information processing systems25, Nevada, Usa, 3-8 December 2012, pp 1-9
  • Szegedy, C., et al., 2014. Going deeper with convolutions.
  • Kaiming, H., et al., 2016. Deep residual learning for image recognition. 2016 CVPR, Las Vegas, USA, 27-30 June 2016, pp. 770-778
  • Badrinarayanan, V., Kendall, A. And Cipollo, R., 2016. SegNet: A deep convolution encoder-decoder architecture for image segmantation.
  • Zhang, Z., Vosselman, G., Gerke, M., Tuia, D. and Yang, M., Y, 2018. Change detection between multimodal remote sensing data using siamese cnn
  • Audebert, N., Le Saux, B. and Lefevre, S., 2018. Beyond rgb: Very high resolution urban remote sensing with multimodal deep networks. ISPRS Journal of Photogrammetry and Remote Sensing. Vol: 140, pp. 20-32
  • Bozkurt, S., 2018. Derin öğrenme algoritmaları kullanılarak çay alanlarının otomatik segmantasyonu. Yüksek lisans tezi, Yıldız Teknik Üniversitesi,.

Classification of remote sensing data with deep learning algorithms

Year 2019, Volume: 1 Issue: 1, 28 - 34, 15.12.2019

Abstract

Today, with the rapid progress of technology, detailed information is obtained by using tools on different platforms about the environment we live in. Images obtained from air and satellite platforms are used in the production of spatial data. These images are used in many areas, from vegetation detection to natural disasters and urban planning. High resolution images in remote sensing data make it easier to detect artifacts. However, in addition to these advantages of high-resolution data, the need for human skill and intervention in the classification process is one of the biggest challenges today due to its comprehensive detail content. To date, many classification approaches have been introduced to reduce human factor.

Due to the hardware and software tools previously insufficient in computer technology, subjects such as machine learning and deep learning which are accepted as the foundations of artificial intelligence have not been studied much. However, today it has increased in popularity thanks to improvements in graphics processors and software. The performance and deep learning approach in recent studies is more promising than machine learning. In this study, classification is made by using deep learning algorithms which will be an alternative to existing classification methods. The International Photogrammetry Society and the Remote Sensing Society (ISPRS) Vaihingen data were used to test the algorithm. In the data set, 5 detail classes have been selected as ground, building, tree, vegetation and vehicle. The algorithm for these details is on average 99% and the lowest 95%. According to the results of this study, it is seen that deep learning algorithms are a good alternative for automatic classification of distance learning data.


References

  • Rosenblatt, F., 1958. The Perceptron: A probabilistic model for information storage and organization in the brain. In: Psychological Review, Cornell aeronaulical laboratory, New York, USA, Vol. LXV, No. 6, pp 386-408.
  • Ivakhnenko, A.,G. and Lapa, V.,G. 1966. Cybernetic predicting devices.
  • Dettmers, T., 2015. Deep learning in a nutshell: history and training parallel forall. Available: https://devblogs.nvidia.com/parallelforall/deep-learning-nutshell-history-training/[Accessed: 12-Apr-2019].
  • LeCun, Y., et al., 1989. Backpropagation Applied to Handwritten Zip Code Recognition, Neural Comput., vol. 1, no. 4, pp. 541–551, Dec.
  • LeCun Y., Boser B., and Denker, J., S., 1989. Handwritten Digit Recognition with a Back-Propagation Network.
  • Huang, C., Davis, L. S. and Townshed, JRG., 2002. An assessment of support vector machines for land cover classification. International Journal of Remote Sensing, 23, 725–749.
  • Kavzoglu, T. ve Çölkesen, İ., 2010. Karar ağaçları ile uydu görüntülerinin sınıflandırılması: Kocaeli örneği, Electronic Journal of Map Technologies, Vol :2, No:1, pp 36-45
  • Krizhevsky, A., Sutkever, A. and Hinton, G., E. 2012. ImageNet classification with deep convolutional neural networks. Advances in neural Information processing systems25, Nevada, Usa, 3-8 December 2012, pp 1-9
  • Szegedy, C., et al., 2014. Going deeper with convolutions.
  • Kaiming, H., et al., 2016. Deep residual learning for image recognition. 2016 CVPR, Las Vegas, USA, 27-30 June 2016, pp. 770-778
  • Badrinarayanan, V., Kendall, A. And Cipollo, R., 2016. SegNet: A deep convolution encoder-decoder architecture for image segmantation.
  • Zhang, Z., Vosselman, G., Gerke, M., Tuia, D. and Yang, M., Y, 2018. Change detection between multimodal remote sensing data using siamese cnn
  • Audebert, N., Le Saux, B. and Lefevre, S., 2018. Beyond rgb: Very high resolution urban remote sensing with multimodal deep networks. ISPRS Journal of Photogrammetry and Remote Sensing. Vol: 140, pp. 20-32
  • Bozkurt, S., 2018. Derin öğrenme algoritmaları kullanılarak çay alanlarının otomatik segmantasyonu. Yüksek lisans tezi, Yıldız Teknik Üniversitesi,.
There are 14 citations in total.

Details

Primary Language Turkish
Subjects Engineering
Journal Section Research Articles
Authors

Mustafa Emre Döş 0000-0002-7605-4270

Murat Uysal 0000-0001-5202-4387

Publication Date December 15, 2019
Acceptance Date December 10, 2019
Published in Issue Year 2019 Volume: 1 Issue: 1

Cite

APA Döş, M. E., & Uysal, M. (2019). Uzaktan algılama verilerinin derin öğrenme algoritmaları ile sınıflandırılması. Türkiye Uzaktan Algılama Dergisi, 1(1), 28-34.
AMA Döş ME, Uysal M. Uzaktan algılama verilerinin derin öğrenme algoritmaları ile sınıflandırılması. TUZAL. December 2019;1(1):28-34.
Chicago Döş, Mustafa Emre, and Murat Uysal. “Uzaktan algılama Verilerinin Derin öğrenme Algoritmaları Ile sınıflandırılması”. Türkiye Uzaktan Algılama Dergisi 1, no. 1 (December 2019): 28-34.
EndNote Döş ME, Uysal M (December 1, 2019) Uzaktan algılama verilerinin derin öğrenme algoritmaları ile sınıflandırılması. Türkiye Uzaktan Algılama Dergisi 1 1 28–34.
IEEE M. E. Döş and M. Uysal, “Uzaktan algılama verilerinin derin öğrenme algoritmaları ile sınıflandırılması”, TUZAL, vol. 1, no. 1, pp. 28–34, 2019.
ISNAD Döş, Mustafa Emre - Uysal, Murat. “Uzaktan algılama Verilerinin Derin öğrenme Algoritmaları Ile sınıflandırılması”. Türkiye Uzaktan Algılama Dergisi 1/1 (December 2019), 28-34.
JAMA Döş ME, Uysal M. Uzaktan algılama verilerinin derin öğrenme algoritmaları ile sınıflandırılması. TUZAL. 2019;1:28–34.
MLA Döş, Mustafa Emre and Murat Uysal. “Uzaktan algılama Verilerinin Derin öğrenme Algoritmaları Ile sınıflandırılması”. Türkiye Uzaktan Algılama Dergisi, vol. 1, no. 1, 2019, pp. 28-34.
Vancouver Döş ME, Uysal M. Uzaktan algılama verilerinin derin öğrenme algoritmaları ile sınıflandırılması. TUZAL. 2019;1(1):28-34.