Research Article

GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM

Volume: 8 December 31, 2020
EN TR

GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM

Abstract

Nesne sayma, gıda, medikal, endüstri ve günlük yaşamda farklı görevler için kullanılan bir süreçtir. Bu çalışmada, nesne sayma işleminin gerçekleştirilebilmesi için görüntü işleme tabanlı sistemler incelenmiş ve uygulamalar yapılmıştır. Uygulamalar için nesnelerin bir silo üzerinden akarak serici üzerinden eğimli bir şekilde ilerleyebileceği bir deney düzeneği tasarlanmıştır. Nesnelerin akışını gözlemleyebilecek endüstriyel bir kamera ve lens sistemi kullanılmıştır. Nesnelerin akışını izleyebilmek için sadece arka aydınlatma kullanılmıştır. Nesnelerin akış hızı ve nesnelerin serici çıkışı akabileceği eğim açısı değiştirilebilmektedir. Endüstriyel kamerada fps, piksel frekansı, pozlama süresi, görüntünün çözünürlüğü, ilgilenen alan seçimi, renkli ve renksiz görüntü alımı, görüntüdeki piksellerin kaç bit ile örnekleneceği kullanıcı tarafından seçilebilmektedir. Algoritma tasarımı için Python yazılımı ve OpenCV kütüphanesi kullanılmıştır. Nesne sayımı için 100 adet nohut tanesi belirlenmiş ve belirli bir süre kameradan video kaydı elde edilmiştir. Video üzerinde arka plan çıkarma işlemi uygulanarak sadece nesnelerin beyaz renk olarak görülebileceği ikinci bir video elde edilmiştir. Binary formata dönüştürülen videoda nesne çevresi sınırlayıcı en küçük dikdörtgen koordinat değerleri ve nesne ağırlık merkezi koordinat değerleri elde edilmiştir. Video görüntüsü üzerinde sabit tek ve çift sanal çizgiler çekilerek sayma işleminin gerçekleştirileceği metotlar geliştirilmiştir. Koordinat değerlerinin ve sanal çizgilerin sayma işlemi için kullanılmasında ortaya çıkan avantaj ve dezavantajlar bu çalışma sonucunda tartışılmıştır.

Keywords

Supporting Institution

NECMETTİN ERBAKAN ÜNİVERSİTESİ BİLİMSEL ARAŞTIRMA KOORDİNATÖRLÜĞÜ

Project Number

181719004

References

  1. Aich, S., Stavness, I., "Leaf counting with deep convolutional and deconvolutional networks", Proceedings of the IEEE International Conference on Computer Vision Workshops, Venice, Italy, 2080-2089, 22-29 Oct. 2017.
  2. Aich, S., Josuttes, A., Ovsyannikov, I., Strueby, K., Ahmed, I., Duddu, H. S., Pozniak, C., Shirtliffe, S., Stavness, I., "Deepwheat: Estimating phenotypic traits from crop images with deep learning", IEEE Winter Conference on Applications of Computer Vision (WACV), Lake Tahoe, NV, USA, 323-332, 12-15 March 2018.
  3. Antonini, G., Thiran, J.-P. J. I. T. o. C., Technology, S. f. V., 2006, "Counting pedestrians in video sequences using trajectory clustering", IEEE Transactions on Circuits and Systems for Video Technology, Vol. 16, No. 8, pp. 1008-1020.
  4. Arteta, C., Lempitsky, V., Noble, J. A., Zisserman, A., "Learning to detect cells using non-overlapping extremal regions", International Conference on Medical Image Computing and Computer-Assisted Intervention, Berlin, Heidelberg, 348-356, 2012.
  5. Barbedo, J. G. A., "Counting clustered soybean seeds", 2012 12th International Conference on Computational Science and Its Applications, Salvador, Brazil, 142-145, 2012.
  6. Baygin, M., Karakose, M., Sarimaden, A., Akin, E. J. a. p. a., 2018, "An image processing based object counting approach for machine vision application", arXiv preprint arXiv:1802.05911.
  7. Chan, A. B., Liang, Z.-S. J., Vasconcelos, N., "Privacy preserving crowd monitoring: Counting people without people models or tracking", IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, AK, USA, 1-7, 2008.
  8. Chan, A. B., Vasconcelos, N. J. I. T. o. I. P., 2011, "Counting people with low-level features and Bayesian regression", IEEE Transactions on Image Processing , Vol. 21, No. 4, pp. 2160-2177.

Details

Primary Language

Turkish

Subjects

Engineering

Journal Section

Research Article

Publication Date

December 31, 2020

Submission Date

November 6, 2020

Acceptance Date

December 3, 2020

Published in Issue

Year 2020 Volume: 8

APA
Öziç, M. Ü., Çankaya, N., Özcan, M., & Gökçe, B. (2020). GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM. Konya Journal of Engineering Sciences, 8, 28-37. https://doi.org/10.36306/konjes.822353
AMA
1.Öziç MÜ, Çankaya N, Özcan M, Gökçe B. GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM. KONJES. 2020;8:28-37. doi:10.36306/konjes.822353
Chicago
Öziç, Muhammet Üsame, Nihat Çankaya, Muciz Özcan, and Bariş Gökçe. 2020. “GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM”. Konya Journal of Engineering Sciences 8 (December): 28-37. https://doi.org/10.36306/konjes.822353.
EndNote
Öziç MÜ, Çankaya N, Özcan M, Gökçe B (December 1, 2020) GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM. Konya Journal of Engineering Sciences 8 28–37.
IEEE
[1]M. Ü. Öziç, N. Çankaya, M. Özcan, and B. Gökçe, “GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM”, KONJES, vol. 8, pp. 28–37, Dec. 2020, doi: 10.36306/konjes.822353.
ISNAD
Öziç, Muhammet Üsame - Çankaya, Nihat - Özcan, Muciz - Gökçe, Bariş. “GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM”. Konya Journal of Engineering Sciences 8 (December 1, 2020): 28-37. https://doi.org/10.36306/konjes.822353.
JAMA
1.Öziç MÜ, Çankaya N, Özcan M, Gökçe B. GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM. KONJES. 2020;8:28–37.
MLA
Öziç, Muhammet Üsame, et al. “GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM”. Konya Journal of Engineering Sciences, vol. 8, Dec. 2020, pp. 28-37, doi:10.36306/konjes.822353.
Vancouver
1.Muhammet Üsame Öziç, Nihat Çankaya, Muciz Özcan, Bariş Gökçe. GÖRÜNTÜ İŞLEMEDE NESNE KOORDİNAT ÖZELLİKLERİNİ KULLANARAK BAKLİYAT SAYMA İŞLEMİNE BİR YAKLAŞIM. KONJES. 2020 Dec. 1;8:28-37. doi:10.36306/konjes.822353

Cited By